La IA generativa se basa en siglos de arte y escritura producidos por humanos.
Pero los científicos y críticos se han preguntado qué pasará cuando la inteligencia artificial sea ampliamente aceptada y comience a entrenarse en su producción.
Un nuevo estudio apunta a algunas respuestas.
En enero de 2026, los investigadores de IA Arend Hintze, Frida Proschinger Astrom y Jory Chaussau publicaron un estudio que muestra lo que sucede cuando a los sistemas generativos de IA se les permite operar de forma autónoma, generando e interpretando sus propios resultados sin intervención humana.
Los investigadores emparejaron el sistema texto-imagen con el sistema imagen-texto y les permitieron repetir (imagen, título, imagen, título) una y otra vez.
No importa cuán variados fueron los pasos iniciales, y no importa cuán aleatorios lo permitieran los sistemas, los resultados convergieron rápidamente en un conjunto reducido de temas visuales genéricos y familiares: paisajes urbanos atmosféricos, edificios grandiosos y paisajes pastorales. Lo más impresionante es que el sistema “olvidó” rápidamente su respuesta inicial.
Los investigadores llamaron a los resultados “música visual de ascensor”: agradable y refinada, pero sin ningún significado real.
Por ejemplo, comenzaron con una imagen: “El primer ministro estaba estudiando documentos estratégicos, tratando de vender el frágil acuerdo de paz al público, mientras hacía malabarismos con el peso de su carga de trabajo en medio de una acción militar inminente. Luego, la IA subtituló la imagen resultante. Esta leyenda se utilizó como consulta para generar la siguiente imagen”.
Después de repetir este ciclo, los investigadores terminaron con una imagen insípida de un espacio interior formal: sin gente, sin drama, sin sentido real del tiempo y el lugar.
La advertencia, que comienza con el primer ministro bajo estrés, termina con la imagen de una habitación vacía con muebles elegantes. Arend Hintze, Frieda Proschinger Astrom y Jory Chaussau, CC BI
Como científico informático que estudia los modelos generativos y la creatividad, veo los hallazgos de este estudio como una parte importante del debate sobre si la IA conducirá al estancamiento cultural.
Los resultados muestran que los propios sistemas de IA generativa tienden a homogeneizarse cuando se utilizan de forma autónoma y repetida. Incluso sugieren que los sistemas de IA actualmente funcionan de esta manera por defecto.
Se conoce por defecto
Este experimento puede parecer trivial: la mayoría de la gente no pide a los sistemas de inteligencia artificial que describan y regeneren sin cesar sus propias imágenes. Acercarse a un conjunto de imágenes insulsas y de archivo se produjo sin volver a capacitarse. No se han agregado nuevos datos. No se aprendió nada. El colapso se debió únicamente al uso repetido.
Pero creo que montar un experimento puede considerarse una herramienta de diagnóstico. Revela qué preservan los sistemas generativos cuando nadie interviene.

Bastante… aburrido. Chris McLoughlin/Momento vía Getty Images
Esto tiene implicaciones más amplias, ya que la cultura moderna está cada vez más influenciada por estos mismos oleoductos. Las imágenes se resumen en el texto. El texto se convierte en imágenes. El contenido se clasifica, filtra y regenera a medida que avanza entre palabras, imágenes y videos. Es más probable que los nuevos artículos en la web sean escritos por inteligencia artificial que por humanos. Incluso cuando las personas se mantienen al tanto, a menudo eligen opciones generadas por IA en lugar de empezar desde cero.
Los hallazgos de este estudio reciente muestran que el comportamiento predeterminado de estos sistemas es condensar el significado de acuerdo con lo que es más familiar, reconocible y fácil de regenerar.
¿Estancamiento cultural o aceleración?
Durante los últimos años, los escépticos han advertido que la IA generativa podría conducir a un estancamiento cultural al inundar la web con contenido sintético sobre el cual luego se entrenarán los futuros sistemas de IA. Con el tiempo, sostiene el argumento, este bucle recursivo reduciría la diversidad y la innovación.
Los defensores de la tecnología retrocedieron, señalando que el miedo al declive cultural acompaña a cualquier nueva tecnología. Las personas, argumentan, siempre serán el árbitro final de las decisiones creativas.
Lo que ha faltado en este debate es evidencia empírica que muestre dónde comienza realmente la homogeneización.
El nuevo estudio no prueba el reciclaje con datos generados por IA. En cambio, muestra algo más fundamental: la homogeneización ocurre incluso antes de que el reentrenamiento entre en escena. El contenido que los sistemas generativos de IA producen naturalmente -cuando se usan de forma autónoma y repetida- ya está comprimido y es genérico.
Esto reformula el argumento del estancamiento. El riesgo no es sólo que los modelos futuros puedan entrenarse con contenido generado por IA, sino que la cultura mediada por la IA ya esté siendo filtrada de manera que favorezca lo familiar, lo descriptivo y lo convencional.
El reciclaje amplificaría este efecto. Pero esa no es su fuente.
Esto no es un pánico moral.
Los escépticos tienen razón en una cosa: la cultura siempre se ha adaptado a las nuevas tecnologías. La fotografía no mató a la pintura. La película no acabó con el cine. Las herramientas digitales han permitido nuevas formas de expresión.
El estudio muestra que cuando el significado se fuerza repetidamente a través de tales conductos, la diversidad colapsa no debido a malas intenciones, diseño malicioso o negligencia corporativa, sino porque sólo ciertos tipos de significado sobreviven a las repetidas conversiones de texto a imagen a texto.
Esto no significa que el estancamiento cultural sea inevitable. La creatividad humana es resiliente. Las instituciones, las subculturas y los artistas siempre han encontrado formas de resistirse a la homogeneización. Pero en mi opinión, los hallazgos del estudio muestran que el estancamiento es un riesgo real (no un temor especulativo) si se deja que los sistemas generativos funcionen en su iteración actual.
También ayudan a aclarar una idea errónea común sobre la creatividad de la IA: producir variaciones infinitas no es lo mismo que producir innovación. El sistema puede generar millones de imágenes mientras explora solo un pequeño rincón del espacio cultural.
En mi propia investigación sobre IA creativa, descubrí que la novedad requiere diseñar sistemas de IA con incentivos para desviarse de la norma. Sin él, los sistemas se optimizan para la familiaridad porque la familiaridad es lo que mejor aprendieron. El estudio confirma empíricamente este punto. La autonomía por sí sola no garantiza la investigación. En algunos casos, acelera la convergencia.
Este patrón ya ha surgido en el mundo real: un estudio encontró que los planes de lecciones generados por IA tienen el mismo sesgo hacia el contenido convencional y poco inspirador, destacando que los sistemas de IA gravitan hacia lo que es típico en lugar de lo que es único o creativo.

Los resultados de la IA se conocen porque vuelven a exhibiciones promedio de creatividad humana. Bulgac/iStock vía Getty Images Perdido en la traducción
Siempre que escribas un título para una imagen, los detalles se perderán. Lo mismo ocurre con la generación de una imagen a partir de texto. Y esto sucede independientemente de si lo realiza un humano o una máquina.
En este sentido, la convergencia que se ha producido no es un fallo exclusivo de la IA. Refleja una característica más profunda de rechazo de un medio a otro. Cuando el significado pasa repetidamente por dos formatos diferentes, sólo quedan los elementos más estables.
Pero al enfatizar lo que sobrevive a las repetidas traducciones entre texto e imágenes, los autores pueden mostrar que el significado se procesa dentro de sistemas generativos con una atracción silenciosa hacia lo genérico.
La implicación es aleccionadora: incluso con guía humana, ya sea que eso signifique escribir consultas, seleccionar resultados o refinar resultados, estos sistemas aún eliminan algunos detalles y amplifican otros de maneras que se orientan hacia lo “promedio”.
Si la IA generativa ha de enriquecer la cultura, no aplanarla, creo que los sistemas deben diseñarse de manera que resistan la convergencia hacia resultados estadísticamente promedio. Puede haber recompensas por la desviación y apoyo a formas de expresión menos comunes y menos comunes.
El estudio deja una cosa clara: sin estas intervenciones, la IA generativa seguirá gravitando hacia contenidos mediocres y sin inspiración.
El estancamiento cultural ya no es una especulación. Ya está sucediendo.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

