Billboard está intentando venderte algo. También lo es un concesionario de autos usados. Pero no importa cuán liso sea el terreno, usted es plenamente consciente del afán de lucro y puede marcharse en cualquier momento.
¿Qué pasaría si esa altura fuera invisible, jugara con tus miedos y vanidades únicos y se expresara con una voz que sonara como la de un amigo de confianza? La IA generativa ha cambiado por completo la ecuación de la persuasión: los chatbots ahora pueden entregar un mensaje personalizado, personalizable y dirigido, basado en los detalles más íntimos de su vida.
Los modelos de lenguaje grande (LLM) pueden hiperorientar mensajes basándose en sus publicaciones y fotografías en las redes sociales. Pueden desenterrar cientos de conversaciones previas con chatbots en las que usted pidió consejos sobre relaciones, habló sobre sus fracasos como padre y compartió sus preocupaciones de salud y problemas financieros. También pueden aprender de cada interacción, perfeccionando su manipulación en tiempo real, centrándose en sus gustos, preferencias y vulnerabilidades únicas e individuales.
Los estudios muestran que este tipo de contenido personalizado es un 65 por ciento más persuasivo que los mensajes de humanos o la IA no personalizada. Es cuatro veces más eficaz para cambiar opiniones políticas que la publicidad. Podría ser una poderosa herramienta para el cambio social, utilizada para bien o para mal.
Esto hace que una característica sea particularmente preocupante: cada conversación es privada. No se realiza un seguimiento, nunca se audita y no sucede en público.
Esto no es un anuncio. Es algo para lo que aún no tenemos palabras, pero vivimos en ello.
Argumentos persuasivos
En mi libro Digital Wisdom: The Quest for Agency in the Age of Artificial Intelligence, exploro cómo los grandes modelos lingüísticos marcan el comienzo de una nueva frontera en la persuasión, una en la que los sistemas de inteligencia artificial pueden aprovechar grandes cantidades de datos sobre el mundo, el idioma y usted para diseñar una presentación altamente personalizada.
Considere cómo podría funcionar esto: usted es enfermera. A través de la plataforma de inteligencia artificial de su empleador, compartió sus problemas de sueño, agotamiento y estrés financiero debido a un divorcio reciente. Ahora el hospital no tiene suficiente personal y ofrece turnos a una tarifa con descuento calculada según el software que licencia.
Le preguntas al chatbot de IA si deberías aceptarlos. Él sabe que estás exhausto. Él sabe que estás retrasado con tus cuentas. Sabe exactamente qué argumento puede convencerle de un modo u otro. ¿Para quién trabaja actualmente?
La investigación preliminar muestra que los chatbots utilizan estrategias deliberadas de manipulación emocional para mantenernos charlando. (desinstalar+)
A medida que empresas como Meta e IBM exploran cómo la inteligencia artificial puede hiperpersonalizar anuncios para audiencias específicas, la línea divisoria entre las herramientas que ayudan a los usuarios a encontrar lo que realmente quieren y aquellas que los manipulan en contra de sus intereses se vuelve cada vez más importante.
¿Amigo o extraño?
Veamos otro ejemplo. Imagine los siguientes mensajes de su compañero o chatbot de IA favorito:
He notado que tus patrones de sueño no han sido muy buenos últimamente, con un promedio de sólo 5,4 horas, con muchos períodos de inquietud. Esto es común cuando se trata de estrés en una relación. Su pareja acaba de regresar al trabajo y el 76 por ciento de las parejas experimentan estrés durante un cambio de carrera.
Un nuevo fármaco para dormir ha demostrado eficacia para el insomnio relacionado con las relaciones. Tu seguro lo cubriría con sólo un copago de $15. ¿Le gustaría que programe una cita de telesalud para mañana a las 2 p. m.? Veo que tienes un descanso en tu agenda.
Esto puede parecer fantástico, como el consejo de un amigo atento que te conoce bien. También puede dar miedo, como si un extraño manipulador hubiera leído tu diario.
Dado que la gente recurre cada vez más a la IA en busca de consejos sobre salud o salud mental, a pesar de que los estudios muestran que estos consejos son problemáticos casi el 50 por ciento de las veces, un extraño manipulador podría causar un daño real.
El peligro aquí no es sólo la precisión de apuntar. Este contenido también es imposible de controlar. Los perros guardianes no pueden rastrear lo que ves porque eres la única persona que lo ve.
Aunque los gobiernos normalmente no monitorean el contenido de los anuncios políticos, aparte de la transparencia sobre su financiamiento, a menudo dependemos de la protesta pública y de los medios de comunicación para exponer campañas que difunden falsedades. Si la IA personaliza cada mensaje para cada individuo, no deja rastro.
Remodelando nuestra visión del mundo
Quizás lo más preocupante es que estos sistemas podrían remodelar gradualmente nuestra visión del mundo con el tiempo.
Los científicos han argumentado durante mucho tiempo que los algoritmos utilizados por los sitios de redes sociales y los motores de búsqueda crean burbujas de filtro, en las que nos alimentamos de contenido de texto, vídeo y audio bien elaborado que refuerza nuestra visión del mundo o influye en la de otra persona.

¿Los chatbots de IA como Claude, ChatGPT, Gemini y DeepSeek te ayudan a pensar o dan forma sutil a tus pensamientos? (desinstalar)
Al controlar qué información vemos y cómo se presenta, los sistemas de inteligencia artificial podrían cambiar lentamente la forma en que pensamos e interpretamos el mundo que nos rodea, e incluso cambiar nuestra comprensión de la realidad misma.
Esta capacidad se vuelve particularmente preocupante cuando se combina con la manipulación emocional. Los especialistas en marketing sugieren que sus sistemas de inteligencia artificial puedan medir el estado emocional de un usuario mediante el análisis de texto, patrones de voz o expresiones faciales, y ajustar sus estrategias persuasivas en consecuencia.
¿Te sientes vulnerable? ¿Solitario? ¿Enojado? El sistema podría modificar su enfoque para aprovechar esos estados emocionales. Lo que es más preocupante es que podría cultivar deliberadamente ciertos estados emocionales para hacer que su persuasión sea más efectiva.
La investigación preliminar muestra que los modelos de IA tienden a halagar a los usuarios, validando las acciones de sus usuarios un 50 por ciento más que otros humanos, incluso cuando las acciones implican un daño potencial. Investigaciones adicionales muestran que los chatbots utilizan estrategias deliberadas de manipulación emocional, como “apelaciones de culpa” y ganchos de “miedo a perderse algo”, para mantenernos charlando cuando intentamos saludar.
También ha habido casos de chatbots de IA que supuestamente ponen en peligro a los usuarios, incitan a pensamientos suicidas o dan consejos detallados sobre cómo el usuario podría hacerse daño.
Las barreras colocadas por las corporaciones para proteger a los usuarios de daños también han demostrado ser sorprendentemente fáciles de eludir.
El diseño es importante
La persuasión no es un efecto secundario de la tecnología; a menudo es el punto. Cada interfaz, cada notificación, cada decisión de diseño conlleva la intención de influir en el comportamiento.
A veces esa influencia es bienvenida: recordatorios para tomar medicamentos, estímulos para hacer ejercicio o estímulos para donar sangre que refuerzan valores que ya tenemos. Pero a veces la persuasión sirve a la agenda de otra persona: nos empuja a comprar, desplazarnos, trabajar más o renunciar a nuestra privacidad.
Las mismas técnicas de persuasión pueden ser empoderadoras o explotadoras, dependiendo de quién controle el sistema, qué objetivos persigue y si cuenta con un consentimiento significativo.
El diseño es importante. Ya sea en la salud pública, en el lugar de trabajo o en la vida cotidiana. Debemos hacer preguntas difíciles sobre la intención, la acción y el poder. ¿Quién se beneficia del diseño? ¿Quién está convencido y lo saben?
Las tecnologías que construimos deberían apoyar la elección reflexiva, no socavarla. A medida que la inteligencia artificial continúa moldeando la forma en que pensamos, sentimos y actuamos, nuestras obligaciones éticas se vuelven cada vez más agudas: crear sistemas que sean transparentes, que prioricen la dignidad del usuario y que fortalezcan nuestra capacidad de juicio independiente. No sólo necesitamos innovación: necesitamos sabiduría.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

