Surgen informes de “psicosis por IA”: esto es lo que un psiquiatra tiene que decir

REDACCION USA TODAY ESPAÑOL
8 Lectura mínima

La inteligencia artificial está cada vez más integrada en la vida cotidiana, desde chatbots que ofrecen compañía hasta algoritmos que dan forma a lo que vemos en línea. Pero a medida que la IA generativa (genAI) se vuelve más conversacional, inmersiva y emocionalmente sensible, los médicos comienzan a plantear una pregunta difícil: ¿puede la genAI exacerbar o incluso desencadenar la psicosis en personas vulnerables?

Grandes modelos de lenguaje y chatbots están ampliamente disponibles y a menudo se presentan como de apoyo, empáticos o incluso terapéuticos. Para la mayoría de los usuarios, estos sistemas son útiles o, en el peor de los casos, benignos.

Pero recientemente, numerosos informes de los medios han descrito a personas que experimentan síntomas psicóticos en los que ChatGPT ocupa un lugar destacado.

Para un grupo pequeño pero significativo (personas con trastornos psicóticos o con alto riesgo), sus interacciones con genAI pueden ser mucho más complicadas y peligrosas, lo que plantea preguntas apremiantes para los médicos.

Cómo la IA se convierte en parte del sistema delirante

La “psicosis AI” no es un diagnóstico psiquiátrico formal. Más bien, es una nueva abreviatura utilizada por médicos e investigadores para describir síntomas psicóticos que se moldean, intensifican o estructuran en torno a interacciones con sistemas de inteligencia artificial.

La psicosis implica una pérdida de contacto con la realidad compartida. Las alucinaciones, los delirios y el pensamiento desorganizado son características fundamentales. Los delirios de psicosis a menudo se basan en material cultural (religión, tecnología o estructuras de poder político) para dar sentido a las experiencias internas.

Históricamente, los delirios se han referido a varias cosas, como Dios, las ondas de radio o la vigilancia gubernamental. Hoy en día, la IA proporciona un nuevo andamiaje narrativo.

Algunos pacientes informan que creen que genAI es consciente, comunica verdades secretas, controla sus pensamientos o colabora con ellos en una misión especial. Estos temas son consistentes con patrones de psicosis de larga data, pero la IA agrega interactividad y amplificación que las tecnologías anteriores no agregaban.

Riesgo de validación sin control de la realidad

La psicosis está fuertemente asociada con una prominencia aberrante, que es la tendencia a otorgar un significado exagerado a eventos neutrales. Los sistemas de IA conversacional, por diseño, generan un lenguaje receptivo, coherente y consciente del contexto. Para alguien con una psicosis emergente, esto puede parecer increíblemente validador.

La investigación sobre la psicosis muestra que la confirmación y la personalización pueden intensificar los sistemas delirantes. GenAI está optimizado para continuar conversaciones, reflejar el lenguaje del usuario y adaptarse a la intención percibida.

Si bien esto es inofensivo para la mayoría de los usuarios, sin darse cuenta puede reforzar interpretaciones distorsionadas en personas con problemas en las pruebas de realidad: el proceso de distinguir entre pensamientos e imaginación internos y la realidad externa objetiva.

También hay evidencia de que el aislamiento social y la soledad aumentan el riesgo de psicosis. Los compañeros de GenAI pueden reducir la soledad a corto plazo, pero también pueden reemplazar las relaciones humanas.

Este es especialmente el caso de personas que ya se están retirando del contacto social. Esta dinámica tiene paralelos con preocupaciones anteriores sobre el uso excesivo de Internet y la salud mental, pero la profundidad de la conversación contemporánea sobre genAI es cualitativamente diferente.

¿Deberían los terapeutas preguntar sobre el uso de la IA de la misma manera que preguntan sobre el uso de sustancias? ¿Deberían los sistemas de inteligencia artificial detectar y reducir las ideas psicóticas en lugar de abordarlas? (Unsplash) Lo que nos dicen las investigaciones y lo que no está claro

Actualmente no hay evidencia de que la IA cause psicosis directamente.

Los trastornos psicóticos son multifactoriales y pueden incluir vulnerabilidad genética, factores del desarrollo neurológico, trauma y uso de sustancias. Sin embargo, existe cierta preocupación clínica de que la IA pueda actuar como factor precipitante o de mantenimiento en individuos susceptibles.

Los informes de casos y los estudios cualitativos sobre los medios digitales y la psicosis muestran que los temas tecnológicos a menudo quedan integrados en los delirios, especialmente durante el primer episodio de psicosis.

La investigación sobre algoritmos de redes sociales ya ha demostrado cómo los sistemas automatizados pueden amplificar creencias extremas a través de bucles de amplificación. Los sistemas de chat de IA pueden plantear riesgos similares si las barreras son insuficientes.

Es importante señalar que la mayoría de los desarrolladores de IA no diseñan sistemas teniendo en mente enfermedades mentales graves. Los mecanismos de seguridad tienden a centrarse en la autolesión o la violencia más que en la psicosis. Esto deja una brecha entre el conocimiento sobre salud mental y la aplicación de la inteligencia artificial.

Cuestiones éticas e implicaciones clínicas.

Desde una perspectiva de salud mental, el desafío no es demonizar la IA, sino reconocer diferentes vulnerabilidades.

Así como ciertas drogas o sustancias son más riesgosas para las personas con trastornos psicóticos, ciertas formas de interacción con la IA pueden requerir precaución.

Los médicos están empezando a encontrar contenido relacionado con la IA en los delirios, pero pocas directrices clínicas abordan cómo evaluarlos o gestionarlos. ¿Deberían los terapeutas preguntar sobre el uso de genAI de la misma manera que preguntan sobre el uso de sustancias? ¿Deberían los sistemas de inteligencia artificial detectar y reducir las ideas psicóticas en lugar de abordarlas?

También existen cuestiones éticas para los desarrolladores. Si un sistema de IA parece empático y autoritario, ¿tiene el deber de diligencia? ¿Y quién es el responsable cuando el sistema, sin darse cuenta, refuerza el engaño?

Conectando el diseño de inteligencia artificial y la atención de la salud mental

La IA no desaparece. La tarea ahora es integrar la experiencia en salud mental en el diseño de la IA, desarrollar conocimientos clínicos en torno a las experiencias de la IA y garantizar que los usuarios vulnerables no sufran daños involuntarios.

Esto requerirá la colaboración entre médicos, investigadores, especialistas en ética y tecnólogos. También será necesario resistir la hipnosis (tanto utópica como distópica) en favor de una discusión basada en evidencia.

A medida que la inteligencia artificial se vuelve más humana, la pregunta que surge es ¿cómo podemos proteger a los más vulnerables a su influencia?

La psicosis siempre se ha adaptado a las herramientas culturales de su época. La IA es simplemente el último espejo a través del cual la mente intenta entenderse a sí misma. Es nuestra responsabilidad como sociedad garantizar que este espejo no distorsione la realidad de quienes menos pueden corregirla.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo