Deepfakes escribe: Cómo y amenazar la democracia y qué podemos hacer al respecto

Periodista ANASTACIO ALEGRIA
7 Lectura mínima

Imagine la recepción de Robocall, pero en lugar de una persona real, es una voz de un líder político que le dice que no vota. Compártalo con amigos, familia, solo para descubrir que es hiper realista y clones de voz. Esto no es hipotético.

En enero de 2024. El falso Joe Biden Robocall llegó a los demócratas de New Hampshire que los invitaron a “quedarse en casa” básicamente del estado. La voz puede haber sido sintética, pero el pánico era real, y es una visión general de las amenazas que enfrentan la democracia en todo el mundo porque las elecciones se convierten en los objetivos más preciados para la información errónea de la información errónea de la IA.

El contenido generado por IA, ya sea profundo, voces sintéticas o imágenes artificiales, se vuelve impactante simple de crear y una detección casi imposible.

Defiega sin cesar, los daños que representan estas amenazas de información errónea son innumerables, con el potencial de abolir la confianza pública en nuestro sistema político, deprimiendo la participación de los votantes y desestabilizan nuestras instituciones democráticas. Canadá no es inmune.

A Lire Aussi: El uso de defectos profundos puede ser dimensionado por la duda, creando confusión y desconfianza en los espectadores

El peligro ya está aquí

Los defectos profundos son medios generados artificialmente (video, audio o imágenes) que usan y para representar de manera realista a personas reales. Las aplicaciones de Benigne (películas, educación) se entienden bien, pero la aplicación maliciosa es rápidamente compensar.

Las herramientas generativas de código de IA Open Code como ElevenLabs y el motor de voz de OpenAI pueden producir voces clonadas de alta calidad con solo unos segundos de sonido. Aplicaciones como Synthesis y Deepfacelab ponen la manipulación de video en sus manos con cualquier computadora portátil.

Donald Trump habla en el Mochegan Sun Arena en Casey Plaza, en agosto de 2024. Año, y quién ayudó a las imágenes generó inteligencia artificial, aceptó la aprobación de Taylor, aceptó que nunca recibió. (Photo AP / Carolin Caster)

Estas herramientas ya están armadas. Además de Biden Robocall, la campaña de Trump compartió una imagen generada por la IA de Taylor Swift, quien apoyó, un fraude obvio, pero el que aún circulaba.

Mientras tanto, las entidades estatales se desplegaron profundos en las campañas de desinformación de la democracia coordinada, según el Instituto de la Primera Enmienda de Knight, las organizaciones de defensa de la libertad de expresión.

¿Por qué es importante para Canadá?

Canadá concluyó recientemente que las elecciones federales fueron de 2025. Años, realizadas sin protectores legales sólidos contra las actividades proporcionadas por la IA.

A diferencia de la Unión Europea, en la que y el acto que está causando un etiquetado claro y el texto, imágenes y videos resultantes, Canadá no tiene regulaciones vinculantes que requieran transparencia en la publicidad política o los medios sintéticos.

En cambio, se basa en códigos voluntarios de comportamiento y moderados basados en la plataforma, lo que resultó inconsistentemente. Esta brecha regulatoria deja información canadiense sobre el ecosistema vulnerable a la manipulación, especialmente en una situación gubernamental minoritaria en la que otras elecciones podrían llamarse en cualquier momento.

Logotipo de OpenAI con chatggpt en segundo plano

El logotipo de OpenAI se ve en el teléfono móvil frente a la pantalla de la computadora que muestra la salida del chatggpt en 2023. En Boston. (AP Photo / Michael Dvier)

La alarma se instala en todo el mundo. Encuesta de encuesta septiembre de 2024. años encontraron que el 57 por ciento de los estadounidenses están “muy” o “extremadamente” preocupados por usar para generar información electoral falsa; Las encuestas canadienses muestran un nivel similar de preocupación.

Que podemos hacer

Ninguna solución será panacea, pero Canadá podría tomar los siguientes pasos clave:

Leyes de etiquetado de contenido: se recuperan la Unión Europea y la etiqueta de mandato para los medios políticos generados por IA. La UE requiere que los creadores de contenido se hayan reducido al contenido producido.

Alfabetización mediática: expandir los programas públicos para enseñar alfabetización de IA y cómo detectar deffaces profundos.

Medidas de protección electoral: Equipo para elecciones de Canadá con instrucciones de respuesta rápida para la desinformación con IA.

Plataforma de responsabilidad: Mantenga las plataformas responsables de la falla en los defectos verificados y requieren informes transparentes sobre los métodos de eliminación y detección para el contenido generado por IA.

Empoderar a los votantes en edad AI

Los demócratas se basan en la confianza en funcionarios electos, en instituciones y se consumen en votantes de información. Si no pueden creer en lo que leen o escuchan, esa confianza se erosiona y el tejido mismo de la sociedad civil comienza a ser despedida.

AI también puede ser parte de una solución. Los investigadores trabajan en programas de agua digital para monitorear el contenido y los medios producidos en tiempo real, en tiempo real en el texto de los hechos en clase. La suspensión de la información anticipada sobre las actividades de IA también tomará una regulación inteligente y advertirá al público.

El futuro político del gobierno minoritario de Canadá es incierto. No podemos esperar a que funcione la crisis. Tomar una acción ahora al modernizar la legislación y la construcción de la infraestructura proactiva ayudará a garantizar que la democracia no sea otra víctima y era.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo