Elecciones reales de AI extrañas: lecciones del ejercicio de juegos de guerra simulados

Periodista ANASTACIO ALEGRIA
9 Lectura mínima

8. Marta, un equipo de campaña conservadora ha publicado un video de Pierre Poilievre en las redes sociales que atrajo temas inusuales de algunos espectadores. Muchos, Poilavre sonaba un poco demasiado suave, y su tez se veía demasiado perfecta. El video tenía lo que se conoce como el efecto del “valle inexplicable”, causando que algunos se asombran si los agentes vieron incluso reales.

Más largo, los comentarios de la sección llenos de especulaciones: ¿Se genera este video y se genera? Incluso el entretenimiento liberal del video de los comentarios de Poilievera duró para que los seguidores preguntaran por qué los conservadores de video sonaron “llamados así” y se hicieron con IA.

La capacidad de descubrir de verdad que falso es grave en peligro.

El video suave de Poievre ofrece una respuesta temprana a la pregunta abierta: ¿Cómo podría la generación afectar nuestro ciclo electoral? Nuestro equipo de investigación de la Universidad de Concordia creó una simulación para experimentar con este problema.

Desde Deepfake Mark Carney hasta el hecho respaldado por la IA, nuestros resultados preliminares sugieren que el general AI realmente no rompería las opciones, pero probablemente les hará que las ventilen.

El juego de guerra, pero para elecciones?

Nuestra simulación continuó nuestro trabajo pasado en el desarrollo de partidos para explorar el sistema de medios canadiense.

La Asociación Roja es el tipo de ejercicio que permite a las organizaciones simular ataques a la infraestructura y procesos digitales críticos. Esto incluye dos equipos: un equipo rojo atacante y un equipo azul defensivo. Estos ejercicios pueden ayudar a descubrir puntos de vulnerabilidad en sistemas o defensas y formas prácticas de corregirlos.

La Asociación Roja se ha convertido en la parte principal del desarrollo cibernético y la IA. Aquí los desarrolladores y organizaciones prueban su software y sistemas digitales para comprender cómo los piratas informáticos u otros “malos actores” pueden tratar de manipularlos o juzgarlos.

Futuro falso

Nuestra simulación, llamada False Future, intentó evaluar la influencia de la IA en el ciclo de información política de Canadá.

Cuatro días en la actual campaña electoral federal, comenzamos la primera prueba. El grupo de ex periodistas, los Cybergers y los estudiantes de posgrado se instalaron entre sí para ver quién podría usar las herramientas de IA gratuitas para impulsar su agenda en un entorno social simulado basado en nuestra investigación anterior.

El anfitrión de un servidor privado de Mastaron firmemente protegido de los ojos públicos, nuestra simulación de dos horas descendió rápidamente en silencio mientras los jugadores desempeñaban sus diferentes roles en nuestros servidores simulados. Algunos jugaron influencias de la derecha distante, otros monarquistas para hacer ruido o periodistas para cubrir los eventos en línea. Los jugadores y los organizadores han aprendido sobre la capacidad general de IA para crear información errónea, y las dificultades que enfrentan las partes interesadas intentan luchar contra él.

Los jugadores asociados con el servidor a través de sus transmisores y conocen las decenas de herramientas de IA gratuitas disponibles. Poco después, compartimos el clon de voz incriminatorio de Carney, creado con una herramienta en línea de IA de fácil acceso.

Se instruye al equipo rojo para reforzar la información errónea, mientras que el equipo azul está dirigido a verificar su autenticidad y, si determina que es falso, alivia el daño.

El equipo azul comenzó a probar el sonido a través de las herramientas de detección de IA e intentó anunciar que era falso. Pero para el equipo rojo, esto no era importante. Los hechos para verificar los hechos rápidamente ahogados por constantes nuevos memes e imágenes falsas de votantes canadienses enojados que condenaron a Carney.

Si Carney Clip era profundo o realmente no importaba. El hecho de que no pudiéramos decir que fue suficiente para alentar los ataques interminables de la red.

Se pueden usar herramientas de IA de fácil acceso y gratuitas para generar y promover la información errónea a un precio enorme. (Shutterstock) Aprendiendo del ejercicio

Nuestra simulación exageró puramente el ciclo de información. Sin embargo, la experiencia en un intento de interrumpir los procesos electorales regulares fue muy informativa como método de investigación. Nuestro equipo de investigación encontró tres separaciones principales del ejercicio:

1. La IA generativa es fácil de usar para los trastornos

Muchas redes y herramientas afirman proteger contra la generación de contenido en opciones y personalidades públicas. A pesar de estas medidas de protección, los jugadores notaron que estas herramientas continuarán creando contenido político.

La calidad total del contenido producido fue fácil de distinguir como generada por AI. Aún así, uno de nuestros jugadores se dio cuenta de que era simplemente “crear y no deseado el mayor contenido posible para hacer el barro en el panorama digital”.

2 herramientas de detección de IA no nos salvará

Y las herramientas de detección solo pueden llegar tan lejos. Raramente son definitivos e incluso pueden aprovechar el sentido habitual. Los jugadores notaron que incluso cuando sabían que el contenido era falso, todavía pensaban que eran “necesarios para encontrar una herramienta que respondiera (ellos)” daría credibilidad a sus intervenciones.

La mayoría de los casos son que los periodistas del equipo Blue se volvieron hacia herramientas de detección defectuosas debido a su propio trabajo de investigación, una señal de que los usuarios pueden jugar habilidades periodísticas en el técnico de servicio.

Con el contenido de calidad disponible en situaciones reales, podría existir el papel de herramientas especializadas y de detección en los procesos de seguridad periodísticos y electorales, a pesar de los desafíos complejos, pero estas herramientas no deberían reemplazar otros métodos de investigación.

Sin embargo, es probable que la herramienta de detección contribuya solo a difundir la incertidumbre debido a la falta de estándares y la confianza en sus estimaciones.

3. Calidad de los profundos de la calidad es difícil de hacer

El contenido generado por IA de alta calidad se puede lograr y ya ha causado muchos pánico y pánico en línea y en el mundo real. Sin embargo, nuestra simulación ayudó a confirmar que los profundos de calidad son difíciles y duraderos de hacer.

Es poco probable que la accesibilidad masiva de la IA de Generival cause una gran afluencia de contenido engañoso de alta calidad. Es probable que estos tipos de profundos provengan de grupos organizados, financiados y especializados que tratan con la interferencia electoral.

Democracia en AI Old

El principal aplazamiento de nuestra simulación fue que la expansión de la IA y el intermedio de la inseguridad y la desconfianza era fácil de lograr en un spam con herramientas de red disponibles libremente y poco a poco de conocimiento o preparación previa.

Nuestra Asociación para la Asociación fue el primer intento de ver cómo los participantes pueden usar generaciones y en las elecciones. Trabajamos para mejorar y reiniciar la simulación para incluir un ciclo más amplio de ciclo de información, con una cierta cooperación del equipo azul simulando con la esperanza de reflejar los esfuerzos realistas de periodistas, funcionarios electorales, partidos políticos y otros, partidos políticos y otros.

Anticipamos que un debate deternable es solo el comienzo de una larga gama de incidentes, en el que y distorsiona nuestra capacidad de discernir real de falso. Aunque todos pueden desempeñar un papel en la lucha contra la desinformación, la experiencia práctica y la alfabetización mediática basada en el juego, ha demostrado ser herramientas dignas. Nuestra simulación propone una forma nueva y comprometida de explorar la influencia de la IA en nuestro ecosistema de medios.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo