Los videos políticos generados por IA tienen más que ver con memes y dinero que con persuasión y engaño

REDACCION USA TODAY ESPAÑOL
6 Lectura mínima

Quizás lo más interesante de muchos vídeos es lo evidentemente falsos que son. En lugar de intentar engañar al espectador haciéndole creer que el evento representado realmente sucedió, los videos tienen un propósito diferente. El presidente Trump no publicó un video de él mismo usando una corona en un avión de combate y arrojando heces a un grupo de manifestantes porque quería que la gente creyera que el vuelo realmente ocurrió. Probablemente hizo esto para expresar sus sentimientos sobre la protesta y crear una broma con sus seguidores.

Los temores sobre las implicaciones políticas de los videos generados por IA han existido desde que se acuñó el término deepfakes en 2017. Las constantes mejoras en la tecnología significan que distinguir lo real de lo falso podría convertirse en una amenaza significativa. Pero el uso actual de imágenes de IA tiene como objetivo principal crear memes y ganar dinero; en otras palabras, contenido típico de las redes sociales.

Elevando a la gente

Las plataformas de Internet utilizan algoritmos diseñados para mantener a las personas interesadas, y eso generalmente significa promover contenido que evoque emociones. Los vídeos políticos generados por IA a menudo provocan una respuesta emocional: diversión o ira.

Política en línea

La novedad de los últimos meses es que las campañas y los políticos están utilizando vídeos creados por inteligencia artificial, no sólo sus seguidores. Un análisis del New York Times encontró que Trump normalmente usa imágenes de IA para “atacar a los enemigos y despertar a sus partidarios”.

Estas nuevas herramientas también permiten la participación activa en el proceso político. En lugar de simplemente observar a los políticos y votar, los ciudadanos pueden desempeñar un papel activo en la configuración de la conversación entre elecciones.

La investigadora de información y tecnología Kate Starbird escribió sobre una dinámica similar en la que los estadounidenses comunes encontraron “evidencia” de fraude electoral en las elecciones de 2020. Los políticos dijeron al público que se produciría fraude electoral, y luego, cuando los votantes vieron cosas que no entendían durante la votación, como el uso de bolígrafos para marcar las papeletas, interpretaron esa acción como evidencia de fraude electoral. Luego, los políticos publicaron esa evidencia en línea para respaldar la historia falsa.

Las nuevas herramientas de inteligencia artificial simplifican aún más este ciclo de desinformación participativa. En lugar de reinterpretar eventos reales como evidencia de una afirmación falsa, las personas pueden crear fácilmente esa evidencia por sí mismas.

Vídeo AI en volumen

Las herramientas de creación de videos con IA facilitan que las personas creen cientos de videos, los carguen en línea y simplemente vean qué contenido se vuelve popular y viral. De hecho, eso es exactamente lo que parece haber sucedido con videos recientes generados por inteligencia artificial sobre redadas del Servicio de Inmigración y Control de Aduanas. Según una investigación de 404 Media, el usuario de Facebook “USA Journey 897” ha estado publicando varios vídeos de la vida real de la actividad policial, así como vídeos absurdos de humanos AI cargando ballenas y montando tigres.

Sin embargo, después del lanzamiento de una nueva versión del generador de videos Sora de OpenAI el 30 de septiembre de 2025, la cuenta pasó por completo a publicar múltiples videos falsos de deportación todos los días. La mayoría de los videos han acumulado cientos de miles de visitas, y un video falso de la detención de un empleado de Walmart ha tenido más de 4 millones de visitas.

Por lo general, estas cuentas están alojadas en el extranjero y existen para ganar dinero a través de programas de incentivos para creadores. Estos incentivos crean un entorno en el que las redes sociales ya no informan a las personas sobre el mundo, sino que sirven como espejo para el entretenimiento, devolviéndonos el mundo que queremos ver, o al menos la versión del mundo que captará nuestra atención e indignación.

Los anuncios políticos generados por IA trascienden los límites éticos. Fluye hacia Internet

No siempre es fácil para las personas saber qué vídeos son reales y cuáles son generados por inteligencia artificial. Una auditoría reciente realizada por la publicación Indicator descubrió que las plataformas regularmente no marcan correctamente el contenido de IA. Los investigadores publicaron más de 500 imágenes y vídeos generados por IA en Instagram, LinkedIn, Pinterest, TikTok y YouTube. Menos de un tercio fueron etiquetados correctamente como generados por IA, e incluso las publicaciones generadas por herramientas de la plataforma de IA a menudo se pasaron por alto.

Durante años, el gran temor de los farsantes políticos era que engañaran a la gente haciéndoles creer algo que no sucedió. Todavía podrían hacerlo, pero en este momento los videos políticos generados por IA son una mezcla de entretenimiento y memes, intentos legítimos de persuasión y formas de llamar la atención a cambio de dinero.

En otras palabras, ahora son iguales que el resto de Internet. La mayor parte de lo que vemos y compartimos tiene como objetivo entretener, parte tiene como objetivo informar y persuadir, y mucho está ahí simplemente para sacar provecho de nuestra atención.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo