Cuando la inteligencia artificial se convierte en fideicomisaria: riesgos y oportunidades para la salud mental

REDACCION USA TODAY ESPAÑOL
7 Lectura mínima

Un informe de la organización no gubernamental Plan Internacional revela que una de cada cuatro jóvenes españolas de entre 17 y 21 años utiliza un sistema de inteligencia artificial (IA) como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece el tipo de atención que muchas personas no encuentran en su entorno inmediato.

Este fenómeno, que puede parecer inofensivo o incluso positivo a primera vista, plantea profundas interrogantes sobre el futuro de la salud mental y la ética tecnológica. Los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de reconocer patrones del lenguaje asociados a estados emocionales. Por ejemplo, si detectan tristeza, ansiedad o desesperanza, responden con mensajes de consuelo o apoyo.

Técnicamente hablando, estos modelos aprenden a predecir la siguiente palabra según el contexto, pero su efecto psicológico es muy real. Nuestros cerebros responden a las interacciones con la inteligencia artificial de manera similar a otro ser humano: una voz digital o un texto empático activa los mismos circuitos neuronales de apego y recompensa.

Pero la verdad es que estos sistemas no sienten: sólo fingen sentir, y esa simulación puede provocar una ilusión de comprensión que resulta confusa. En el contexto de una vulnerabilidad particular como la soledad no deseada o el sufrimiento emocional, esta ilusión puede aliviar… o crear adicción.

Nuevos riesgos de la mente digital

La IA aplicada a la salud mental encierra una paradoja: cuanto más humana parece, más fácil nos resulta olvidar que no lo es. De esta confusión surgen tres riesgos principales.

El primero de ellos es la dependencia emocional. Algunos usuarios forman vínculos emocionales con las máquinas que no pueden ser correspondidos de ninguna manera. La interacción regular con la IA puede reemplazar gradualmente el contacto humano y empobrecer la capacidad de empatía y autorregulación emocional.

Además, es posible desarrollar ansiedad tecnológica https://doi.org/10.2147/PRBM.S440889. Vivir bajo la influencia constante de sistemas que prescriben cómo sentir o qué pensar puede conducir a una pérdida de autonomía y a una sensación de control reducido sobre la vida emocional.

Finalmente, corremos el riesgo de deuda cognitiva DOI:10.48550/arKsiv.2506.08872. Al delegar el pensamiento o la introspección a una máquina, perdemos el hábito de pensar y trabajar con nuestras emociones. Así como el GPS debilita nuestra memoria espacial, la IA puede debilitar nuestra memoria emocional.

A todo esto se suman sesgos algorítmicos. Las IA aprenden de datos reales, pero estas bases de datos suelen reproducir las mismas desigualdades de género, raciales y culturales. Sin un mecanismo correctivo, esto puede provocar una respuesta aparentemente neutral para reforzar los estereotipos o trivializar las experiencias de dolor psicológico.

Y lira también: la inteligencia artificial refleja prejuicios y desigualdades sociales: así es como podemos mejorarla

IA espejo emocional

Recientemente, el Instituto de Ética en Inteligencia Artificial de la Universidad Técnica de Munich publicó un artículo en el que informa que los chatbots de IA necesitan protección emocional. En él, los autores advierten de que las interacciones prolongadas con la inteligencia artificial pueden alterar la regulación emocional del usuario e incluso provocar estados de adicción o idealización del sistema.

Proponen la introducción de “salvaguardas emocionales obligatorias”, como la identificación clara de la IA como no humana, la implicación automática de recursos de ayuda psicológica en situaciones de riesgo o la revisión ética de los datos emocionales que recopilan estos sistemas.

El mensaje es claro: la inteligencia artificial no es neutral. Refleja las intenciones, valores y prejuicios de quienes lo diseñan. En el campo de la salud mental, donde las emociones son frágiles y el sufrimiento real, esto adquiere una relevancia ética decisiva.

De la amenaza al potencial

A pesar de estos riesgos, la IA puede ser un gran aliado si se utiliza bien. Puede detectar signos tempranos de depresión o ansiedad mediante el análisis del lenguaje natural gracias al análisis de datos en una escala mucho más allá del alcance de la mente humana. También puede facilitar el acceso a la atención psicológica en zonas rurales o de bajos recursos; además de servir como herramienta educativa para mejorar la metacognición, es decir, la capacidad de reflexionar sobre el propio pensamiento y gestionar mejor las emociones.

Al mismo tiempo, puede liberar a los profesionales de tareas repetitivas, ayudándoles a centrarse en la relación terapéutica. No se trata de reemplazar la empatía humana, sino de mejorarla a través de datos y análisis. Cuando la IA está al servicio del juicio clínico, y no al revés, puede contribuir a un modelo de atención más humano, no menos.

Pero para ello necesitamos un marco regulatorio ético y científico sólido. La nueva ley europea de IA, que entrará en vigor en febrero de 2026, es un paso adelante: exige transparencia, trazabilidad y supervisión humana en sistemas de alto impacto.

En el campo de la salud mental, que se considera de alto riesgo, esto debe traducirse en protocolos de seguridad emocional para estos sistemas, auditorías de prejuicios y capacitación ética para desarrolladores y médicos.

En conclusión, la inteligencia artificial se ha convertido en un espejo emocional de nuestra sociedad. Refleja nuestras fortalezas, pero también nuestra soledad. Él puede seguirnos, pero nunca reemplazarnos.

El desafío no es hacer que las máquinas sean más humanas, sino garantizar que los humanos no perdamos nuestra humanidad al hablar con ellas.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo