Ahora es la una de la madrugada. El debate ha terminado, pero todavía lo estás jugando en tu cabeza. Repites el tono, el momento y esa frase que salió mal. Entonces abres un chatbot de inteligencia artificial (IA) y escribes: “¿Estoy en lo cierto o estoy exagerando? ¿Qué digo de lo que dijeron? ¿Qué querían decir con KSIZ?”.
La investigación sobre el apego, la regulación de las emociones y el discurso en línea ayuda a explicar por qué recurrir a la IA está ganando popularidad. Sin embargo, la tranquilidad que proporciona puede consolidar demasiado rápidamente una interpretación unilateral y, en última instancia, generar expectativas que las relaciones reales luchan por cumplir.
Pero para muchos, ahí es donde comienza hoy el apoyo a las relaciones. La privacidad de los chatbots de IA se ha convertido en el primer lugar al que acude la gente, especialmente porque las alternativas (ayuda profesional o familiares y amigos) a menudo implican pagar, dar explicaciones detalladas o arriesgarse a ser juzgado justo cuando te sientes menos estable.
Sin embargo, aunque es un momento privado y está a un clic de distancia, ¿deberíamos buscar consejos neutrales sobre relaciones de parte de chatbots de IA?
¿Por qué la inteligencia artificial se siente como un apoyo?
En una época en la que la terapia es costosa o está fuera de nuestro alcance, y la mayor parte del aprendizaje sobre las relaciones proviene de los medios de comunicación en lugar del desarrollo de habilidades prácticas, la inmediatez puede resultar muy atractiva para algunos.
La atracción aumenta cuando la conversación sobre relaciones implica identidad. Preguntas como “¿Soy necesitado? ¿Soy cruel? ¿Soy yo el problema?” conllevan vergüenza, lo que hace que la revelación parezca arriesgada. Un chatbot ofrece un espacio de bajo riesgo para narrar eventos y expresar lo que podría parecer demasiado expuesto con amigos o familiares.
En particular, el entrenamiento de relaciones basado en chat puede resultar instantáneamente gratificante, y la investigación sobre la participación basada en recompensas en plataformas en línea sugiere que la retroalimentación rápida y reforzante puede hacer que las personas regresen una y otra vez, creando un efecto adictivo que las interfaces de chatbot pueden amplificar.
Un trabajo relacionado con chatbots también encuentra que cuando los usuarios se sienten familiarizados con la IA, informan una mayor satisfacción y mayores intenciones de usarla nuevamente, lo que ayuda a explicar por qué el uso de estas herramientas puede convertirse en un hábito en lugar de algo aislado. Curiosamente, investigaciones recientes también señalan que las personas con estilos de apego ansiosos tienen más probabilidades de volverse emocionalmente dependientes de la IA.
Muchos utilizan la IA como entrenador de comunicación, por ejemplo para enviar mensajes de texto después de un conflicto, suavizar el tono y practicar un lenguaje de recuperación antes de hablar. (Unsplash) De foros anónimos a consejos algorítmicos
Antes de los chatbots, la gente solía hacer este trabajo a través de multitudes anónimas en foros como Reddit, y la investigación sobre la divulgación en línea y las comunidades de apoyo muestra que el anonimato y un bajo costo social pueden aumentar la disposición a compartir, especialmente cuando se trata de experiencias estigmatizadas o cargadas de emociones.
En esos espacios puedes descubrir sin ser completamente conocido, aprender lenguaje de extraños y sentirte menos solo con tus pensamientos. La IA destila eso y sugiere los siguientes pasos, que pueden facilitar la detección y al mismo tiempo llevar una lectura de la situación a algo que parece resuelto.
Una solución rápida y demasiado simplificada.
Sin embargo, con el tiempo, la afirmación instantánea puede generar expectativas de tranquilidad constante y cierre rápido que las relaciones íntimas rara vez mantienen, ya que la intimidad se desarrolla a través de un trabajo recíproco más lento bajo presión.
La IA como sala de ensayo de relaciones
En la práctica, la gente utiliza la inteligencia artificial para mucho más que las crisis.
Muchos lo utilizan como entrenador de comunicación, por ejemplo para escribir mensajes después de un conflicto, suavizar el tono y practicar el lenguaje de recuperación antes de hablar.
Otros lo utilizan como sala de ensayo para conversaciones difíciles o como herramienta de planificación para reconectarse, ya sea a través de ideas para citas, rutinas o pequeños rituales que restablecen la intimidad después de la distancia.
También aparece fácilmente en trabajos de enlaces menos visibles.
Eso podría parecer como preguntarle a una IA sobre los beneficios de planificar las relaciones sexuales, cómo afrontar la menopausia y la sequedad vaginal, o qué lubricante usar con un dilatador después del tratamiento del cáncer. Aquí es donde la inteligencia artificial ayuda a comprender situaciones que pueden ser difíciles de discutir con otros y ayuda a aportar claridad a un campo desconocido.
Lo que se complica no es simplemente que los humanos utilicen la IA, sino cómo cambia su estructura lo que se considera una buena explicación. Debido a que el sistema tiene acceso a una sola perspectiva narrada, puede producir una interpretación coherente con alta confianza, tal vez reteniendo detalles destacados como el contexto, la historia, la dinámica de poder o lo que dijo la otra persona.
Ayudar, pero no sustituir, el trabajo relacional
Si bien puede parecer coherente, la IA comprime fácilmente los matices en una sola historia y solo puede centrarse en una única conclusión. Un chatbot sólo puede responder a lo que se le da; Expertos capacitados examinan, aclaran e identifican defectos.

La IA puede apoyar la reflexión y la comunicación, pero la esencia de las relaciones aún se construye y repara en tiempo real a través de las decisiones que los socios toman entre sí. (desempaquetar)
Este no es sólo un uso informal de los chatbots generales. Algunas herramientas están diseñadas explícitamente para imitar el entrenamiento de relaciones y el apoyo terapéutico, como Mojo o Amanda.ai, y algunas incluso están diseñadas para funcionar como un “compañero de IA” y una pareja romántica.
El atractivo de la inteligencia artificial también conlleva costos y riesgos reales, incluida la infraestructura que consume mucha energía, los intereses corporativos y políticos que dan forma a lo que estos sistemas aprenden y reproducen, el potencial de desinformación cuando faltan matices y preocupaciones sobre la privacidad cuando el descubrimiento intensivo de la personalidad de un individuo se canaliza a través de sistemas de datos que no controlan.
La IA puede apoyar la reflexión y la comunicación, pero la esencia de la relación aún se construye y repara en tiempo real a través de las decisiones que los socios toman entre sí. Entonces, si desea una respuesta humana matizada, pregúntele a las personas en su vida qué quisieron decir cuando dijeron “KSIZ”.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

