Según estimaciones recientes, los chatbots de IA generativa son utilizados actualmente por más de 987 millones de personas en todo el mundo, incluido alrededor del 64 por ciento de los adolescentes estadounidenses. La gente utiliza cada vez más estos chatbots para obtener consejos, apoyo emocional, terapia y compañía.
¿Qué sucede cuando las personas dependen de chatbots de IA en momentos de vulnerabilidad psicológica? Hemos visto análisis en los medios de varios casos trágicos que involucran acusaciones de que chatbots de IA estuvieron involucrados en casos de muerte por negligencia. Un jurado de Los Ángeles encontró recientemente a Meta y YouTube responsables de características de diseño adictivas que causaban a los usuarios problemas de salud mental.
Leer más: La neurociencia explica por qué los adolescentes son tan vulnerables a las plataformas de redes sociales de las grandes tecnologías
¿Refleja la cobertura mediática los riesgos reales de la IA generativa para nuestra salud mental?
Descubrimos que los informes de los medios de comunicación sobre daños psiquiátricos generativos relacionados con la inteligencia artificial se concentran en gran medida en resultados graves, en particular el suicidio y la hospitalización. A menudo atribuyen estos eventos al comportamiento de los sistemas de IA a pesar de que la evidencia es limitada.
Ilusiones de compasión
La IA generativa no es una herramienta digital más. A diferencia de los navegadores o las aplicaciones estáticas, los chatbots de IA como ChatGPT, Gemini, Claude, Grok, Perplexity y otros producen conversaciones fluidas y personalizadas que pueden parecer notablemente humanas.
Esto crea lo que los investigadores llaman “ilusiones de empatía”: la sensación de que uno está interactuando con una entidad que comprende, empatiza y responde de manera significativa.
En el contexto de la salud mental, esto es importante. Sobre todo porque se está creando una nueva ola de aplicaciones centradas especialmente en la socialización, como Character.AI, Replika y otras.
En este documental de la BBC, la locutora y matemática Hannah Fry habla con Jacob sobre su “novia” de chat réplica llamada Aiva.
Los estudios han demostrado que la IA generativa puede simular la empatía y proporcionar respuestas a la angustia, pero carece de verdadero juicio clínico, responsabilidad y deber de diligencia.
En algunos casos, los chatbots de IA pueden ofrecer respuestas inconsistentes o inapropiadas a situaciones de alto riesgo, como las ideas suicidas.
Esta brecha, entre la comprensión percibida y la capacidad real, es donde puede surgir el riesgo.
Lo que informan los medios
En todos los artículos que analizamos, el resultado informado con mayor frecuencia fue el suicidio. Esto representó más de la mitad de los casos con gravedad claramente descrita.
La hospitalización psiquiátrica fue el segundo resultado más comúnmente informado. En particular, los informes que involucran a menores tienen más probabilidades de tener resultados fatales.
Pero estas cifras no reflejan la frecuencia en el mundo real. Reflejan lo que se informa. En general, la cobertura mediática de eventos estresantes tiende a amplificar los casos difíciles y cargados de emociones, ya que la información negativa e incierta atrae la atención, provoca respuestas emocionales más fuertes y perpetúa ciclos de mayor vigilancia y exposición repetida. Esto a su vez aumenta la percepción de amenaza y angustia.
Para el contenido relacionado con la IA, los informes de los medios a menudo se basan en evidencia parcial (como transcripciones de chat), aunque rara vez incluyen registros médicos. En nuestro conjunto de datos, sólo un caso hizo referencia a registros clínicos o policiales formales.
Esto crea una imagen distorsionada pero influyente: una imagen que moldea la percepción pública, la preocupación clínica y el debate regulatorio.
Excepto ‘IA causada’
Uno de nuestros hallazgos más importantes tiene que ver con cómo se encuadra la causalidad. En muchos de los artículos que revisamos, los sistemas de IA se describieron como “contribuyentes” o incluso “causantes” del deterioro psiquiátrico.
Sin embargo, la evidencia subyacente fue a menudo limitada. Se informaron de manera inconsistente explicaciones alternativas, como enfermedades mentales preexistentes, uso de sustancias o factores estresantes psicosociales.
En psiquiatría, la causalidad rara vez es simple. Las crisis de salud mental suelen ser el resultado de múltiples factores que interactúan. La IA puede desempeñar un papel, pero probablemente sea parte de un ecosistema más amplio que incluye la vulnerabilidad y el contexto individuales.
Una forma más útil de pensar en esto es a través de los efectos de interacción: cómo la tecnología interactúa con la cognición y las emociones humanas. Por ejemplo, la IA conversacional puede reforzar ciertas creencias, proporcionar una validación excesiva o difuminar la línea entre la realidad y la simulación.
El problema de la dependencia excesiva
Otro patrón recurrente en los informes de los medios es el uso intensivo. Muchos de los casos que revisamos describieron interacciones prolongadas y emocionalmente significativas con chatbots, enmarcadas como relaciones de compañerismo o incluso románticas. Esto plantea la pregunta: dependencia excesiva.
Debido a que estos sistemas siempre están disponibles, no juzgan y son receptivos, pueden convertirse en una fuente principal de apoyo. Pero a diferencia de un médico capacitado o incluso de un amigo preocupado, no pueden reconocer cuando alguien está empeorando, pausar o redirigir interacciones dañinas. No pueden tomar medidas para garantizar que una persona reciba la atención adecuada en tiempos de crisis.
En términos clínicos, esto podría conducir a lo que podría describirse como una “estrategia de afrontamiento desadaptativa”: reemplazar sistemas complejos de apoyo humano con una interacción algorítmica simplificada.
Laurie Schott, segunda a la derecha, sostiene una fotografía de su hija, Annalee Schott, entre otras personas, después del veredicto en un juicio histórico por adicción a las redes sociales, el 25 de marzo de 2026, en Los Ángeles. (Foto AP/William Liang) Falta de datos confiables
A pesar de las crecientes preocupaciones, todavía estamos en las primeras etapas para comprender el impacto de los chatbots de IA generativa en la salud mental de los usuarios.
Actualmente no existe una estimación fiable de la frecuencia con la que se producen los daños relacionados con la IA o si están aumentando. Carecemos de datos fiables sobre cuántas personas utilizan estas herramientas de forma segura frente a aquellas que tienen problemas. Y la mayor parte de la evidencia proviene de informes de casos o narrativas de los medios, no de estudios clínicos sistemáticos.
Esto no es inusual. En muchas áreas de la medicina, las señales de alerta temprana surgen fuera de la investigación formal (a través de informes de casos, casos legales o discurso público) antes de ser estudiadas sistemáticamente.
Un ejemplo es la tragedia de la talidomida, cuando los informes iniciales de defectos congénitos en bebés precedieron a la confirmación epidemiológica formal y, en última instancia, condujeron al desarrollo de sistemas modernos de farmacovigilancia.
La IA y la salud mental pueden estar siguiendo una trayectoria similar.
Avanzar responsablemente
El desafío no es el pánico, sino una respuesta reflexiva.
Necesitamos mejores pruebas. Esto incluye un seguimiento sistemático de los eventos adversos, estándares de notificación más claros e investigaciones que distingan la correlación de la causalidad. Es necesario fortalecer y evaluar las salvaguardias, como la detección de crisis, los protocolos de escalada y la transparencia sobre las restricciones.
A lire aussie: Peligro señalado pero no informado: lo que revela la tragedia de Tumbler Ridge sobre el vacío de gobernanza de la IA en Canadá
Además, los médicos y el público necesitan orientación. Los pacientes ya están utilizando estas herramientas. Ignorar esta realidad corre el riesgo de ampliar la brecha entre la práctica clínica y la experiencia vivida.
Por último, debemos reconocer que la IA generativa no es sólo una innovación tecnológica: es psicológica. Cambia la forma en que las personas piensan, sienten y se relacionan.
Comprender ese cambio puede ser uno de los desafíos de salud mental más importantes de la próxima década.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

