Durante mucho tiempo, la idea de que las máquinas podrían convertirse en amigos, el tema de la ciencia ficción confidencial o incluso terapeutas. Hoy, sin embargo, esta ficción especulativa se filtró en la realidad: hay muchas personas hablando con chatbots que buscan consejos, distracciones, empresa o incluso apoyo emocional.
Este nuevo territorio social nos está obligando a establecer: ¿Puede la inteligencia artificial realmente enriquecer nuestra vida emocional o compartiremos nuestras vulnerabilidades más profundas con el código?
Entre lo bueno y lo malo
Visiones del futuro y generalmente se mueven entre utopía y distopía. Escenarios impresionantes imaginan las máquinas que expanden el potencial humano, mejoran el bien y llenan los espacios en blanco que quedan con sistemas sociales sobrecargados. Los distópicos, por otro lado, evocan sistemas incontrolados, sin una brújula ética que amplifica el conflicto y la manipulación. Estas visiones opuestas recuerdan a la vieja discusión filosófica de la naturaleza humana.
Si Jean-Jacques Rousseau afirmó que las personas nacieron bien y que la sociedad los estropea, hacia Thomas Hobbes, las personas son lobos para sí mismas y la única ley y poder que manejan. La aplicación de estas ideas en AI, Rousseau sugeriría que las máquinas reflejan la bondad humana, mientras que Hobbes advertiría que podrían intensificar nuestros impulsos oscuros. La realidad, como siempre, es más conveniente.
Además de estas abstracciones, la pregunta es si las máquinas pueden ser nuestros amigos aquí y ahora.
La soledad es una de las crisis definidas de nuestro tiempo. En el Reino Unido, Research 2022. Encontró que, al menos ocasionalmente, más de la mitad de los adultos adultos sentían. Mientras tanto, alrededor del 6% afirmó sentirse solo.
En los Estados Unidos, el cirujano general, un cargo público determinado por el Presidente y cuya función es supervisar el Servicio de Salud Pública y es el portavoz principal en la salud pública del gobierno federal, declaró 2023. El año que la soledad era una amenaza para la salud pública.
Un amigo de reemplazo
En este contexto, esto no es sorprendente que los compañeros virtuales basados en la IA encontraran usuarios entusiastas. Las aplicaciones empáticas como la réplica, el carácter. AI o Xiaoice atrajeron a millones de personas. Estos sistemas escuchan sin prueba, reaccionan con empatía y se adaptan a las preferencias de cada usuario. Algunos son una fiesta juguetona. Para otros, reemplazos para amigos ausentes, familiares distantes o terapeutas inaccesibles.
Investigaciones recientes han demostrado que en los Estados Unidos, casi cinco adultos jóvenes se comunicaron con IA diseñada como una pareja romántica y casi diez describe estas interacciones como interacciones íntimas. El hecho de que estas herramientas se integren en la vida emocional cotidiana, no como las rarezas, sino como verdaderos colegas, indican cambios sociales profundos.
La investigación confirma que, aunque algunos usuarios experimentan un alivio temporal de la soledad, que dependen demasiado de estos bots, especialmente si carecen de relaciones reales, generalmente informan, durante el tiempo, aunque se están multiplicando, menos bien.
Violencia y manipulación
Los algoritmos entrenados con enormes bases de datos pueden jugar calor y violencia, explotación o manipulación. Lo que parece a las empresas, en realidad, el peligro oculto.
El personaje. AI es triste presunto daño a los menores. En Florida, la familia afirma que la plataforma afectó el suicidio de sus 14 hijos. En Texas, la queja cuenta cómo un adolescente, después de pelear con los padres durante el uso de la pantalla, recibió una propuesta para matarlos de Bot.
Estos episodios revelan una verdad inquietante: aunque las máquinas simulan la empatía, carecen de frenos éticos, juicios y responsabilidad del verdadero ser humano.
La ilusión de la amistad
Nos lleva a un problema material: la amistad y la terapia no son intercambiables con la simulación. La amistad humana se basó en la reciprocidad, la experiencia común y la verdadera vulnerabilidad. La terapia requiere capacitación profesional, responsabilidad ética y responsabilidad. Los chatbots pueden imitar la superficie de ambos, pero realmente no pueden adaptarse, o nutrir o asumir la responsabilidad.
Algunos afirman que si una persona se siente mejor después de hablar con un bot eso es suficiente. Pero esta visión pragmática pasa por alto el peligro: dependencia de los sujetos que parecen estar preocupados, pero no puedo hacer eso. Una ilusión de amistad puede consolar en poco tiempo, pero aislar a largo plazo.
“No apliques daño”
Aquí, la filosofía es útil nuevamente. Las esperanzas de Rousseau de que las personas, y, la expansión, sus creaciones, esencialmente buenas puedan alentarnos a construir máquinas que reflejen la compasión. Pero es que la visión oscura de este Hobbes todavía está vigente: sin normas o límites, incluso buenos sistemas buenos pueden convertirse en lobos con la piel digital.
Los desarrolladores deben adoptar el principio similar a ese medicamento: “No cause daño” desde el principio desde el principio. Políticamente responsable debe regular una empresa artificial como un problema de salud pública. Y los educadores y filósofos deben ayudar a la sociedad a reflexionar sobre lo que significa confiar en nuestras emociones en las máquinas.
Y tal vez nunca le gustamos, pero puede reflejar lo que apreciamos. Si los diseñamos como una herramienta de cuidado, no como un lobo oculto, los chatbots no solo hablarán, sino que nos recordarán el humano más común en ellos.
La versión de este artículo fue publicada en LinkedIn.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

