En los últimos años, los deepfakes, contenidos hiperrealistas generados por inteligencia artificial, se han convertido en parte del panorama digital cotidiano. Este tipo de contenidos provocó una reacción casi automática en las redes sociales. Un breve comentario que resume la sospecha colectiva: “Es IA”.
Esta frase aparece debajo de cada publicación ligeramente sorprendente. Basta con que algo nos desconcierte para que surjan las dudas. Por ejemplo, sabemos que la inteligencia artificial es capaz de clonar voces y esto ha cambiado la forma en que percibimos la información y juzgamos su autenticidad. El problema no es sólo que haya grabaciones de audio falsas que se hacen pasar por auténticas, sino también el hecho de que cuando cualquier contenido puede producirse con unos pocos clics, la sospecha deja de ser excepcional y se convierte en un reflejo automático.
Surge entonces la inevitable pregunta: ¿cómo distinguir lo auténtico de lo artificial? Precisamente de esto trata el proyecto de investigación ¿Qué hace humana la voz?, desarrollado en el Laboratorio de Fonética del CSIC. Conscientes del impacto social que provoca la proliferación de los deepfakes, nuestro proyecto nace con una clara vocación informativa.
Para comprender mejor lo publicado en el último año y medio sobre este tema, puedes consultar nuestra lista de lectura, un recurso de acceso abierto con más de 100 entradas que incluye publicaciones científicas, ejemplos de deepfakes, referencias a normativas sobre el tema y otros recursos para que la ciudadanía pueda estar informada sobre el uso malicioso de la inteligencia artificial generativa.
Este artículo pretende transmitir parte de ese conocimiento a los ciudadanos a través de recomendaciones basadas en datos que puedan guiar el desarrollo de políticas públicas en el futuro. Para ello, cabe analizar qué ocurre cuando la desconfianza deja de ser la excepción y se convierte en la norma.
¿Qué es el “Dividendo del Mentiroso”?
Esta situación da lugar a lo que se conoce como el “dividendo del mentiroso”. El concepto describe una paradoja moderna: cuando sabemos que existen falsificaciones casi perfectas, es más fácil negar lo auténtico. La posibilidad misma de que la grabación de audio sea falsa se convierte en una coartada, y basta con sembrar sospechas para perder credibilidad ante la opinión pública.
Este fenómeno tiene implicaciones particularmente preocupantes en el ámbito de la justicia, ya que se utiliza como estrategia de defensa jurídica. Un ejemplo bien conocido es Elon Musk. En la disputa sobre el funcionamiento del piloto automático en el vehículo Tesla, argumentó que, al ser una figura pública, es probable que su voz fuera falsificada, por lo que no debe admitirse como prueba el vídeo en el que aseguraba la absoluta confiabilidad de su tecnología. Sin embargo, al no presentarse ninguna prueba que sustentara la sospecha de que se trataba de un deepfake, el tribunal decidió conservar el vídeo como prueba, señalando que de lo contrario sentaría un peligroso precedente de inmunidad para figuras públicas.
Claves de detección de suplantación de audio
1. Cada vez es más difícil distinguir si una voz es real o creada artificialmente con sólo escucharla. Existen varios estudios científicos que muestran una capacidad humana limitada para detectar voces sintéticas. En cuatro años, hemos notado que los porcentajes correctos de oyentes que participan en estudios perceptivos experimentales controlados son cada vez más bajos. Aunque los resultados no son directamente comparables entre los estudios debido a diferencias metodológicas, todo indica que en condiciones del mundo real (fuera del laboratorio) nuestra capacidad de ser precisos sería aún menor. Es decir, en la vida cotidiana somos especialmente susceptibles al engaño.
La precisión humana da como resultado estudios perceptivos recientes de ‘deepfakes’ de voz. Una charla informativa corrió a cargo de Aurora López Jarenjo, Personal Técnico de Investigación y Desarrollo del Laboratorio de Fonética del CSIC.
2. Las herramientas automáticas de detección de deepfakes tampoco son seguras. Para que sean eficaces, deben tener en cuenta las condiciones reales en las que se crean y propagan las tuberías profundas, como el ruido de fondo o el uso de diferentes algoritmos de clonación. Además, las bases de datos utilizadas para entrenar estos sistemas de detección deben ser realistas, diversas y abundantes. Por ejemplo, tienen que comprender diferentes dialectos, estilos de habla, situaciones comunicativas, etc.
Los sistemas de detección funcionan bien cuando se entrenan con audiolibros, pero un deepfake de la vida real no suena como un actor leyendo un libro en un estudio de grabación profesional. La mayoría de las bases de datos con las que se entrenan los sistemas de detección consisten en discurso leído, que dista mucho de ser espontáneo y conversacional.
3. Las recomendaciones actuales para la identificación de deepfakes son más útiles cuando el audio va acompañado de imágenes. Se suele recomendar buscar posibles errores visuales como movimientos bruscos o parpadeos irregulares. Sin embargo, cuando se trata sólo de audio, como los mensajes de voz, estas pistas desaparecen. Pese a ello, sigue siendo recomendable tener cuidado con las pistas de audio cortas, comprobar su origen y prestar atención a inconsistencias o cambios bruscos.
En conclusión, aunque se están desarrollando sistemas de detección desde diferentes disciplinas, todavía es necesario mejorarlos para adaptarse a las tecnologías de generación en constante evolución, ya que su generación es mucho más avanzada que su detección. Por este motivo, la responsabilidad se divide entre la comunidad científica, que debe continuar la investigación, y el público, que debe ser consciente de los riesgos asociados.
La facilidad de acceso a estas herramientas, junto con su uso frecuente sin consentimiento, provoca verdaderos problemas como la suplantación de identidad, la difamación o el fraude. En un entorno donde todo puede parecer falso, mantener la confianza se convierte en un desafío colectivo.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

