En el verano de 2025, OpenAI lanzó ChatGPT 5 y eliminó a su predecesor del mercado. Muchos suscriptores del antiguo modelo se apegaron a su tono cálido y agradable y lamentaron la pérdida de su simpático compañero robótico. Tanta fue la frustración que Sam Altman, director ejecutivo de OpenAI, tuvo que admitir que el lanzamiento fue un fracaso y la empresa revirtió el acceso.
Cualquiera a quien un chatbot le haya dicho que sus ideas son brillantes está familiarizado con el adulador de la inteligencia artificial: su tendencia a decirle a los usuarios lo que quieren escuchar. A veces es muy explícito – “es una pregunta muy profunda” – y otras veces es mucho más sutil. Imagine una IA calificando su idea para un artículo como “original” incluso si muchas personas ya han escrito sobre el mismo tema, o insistiendo en que su estúpida idea de salvar un árbol en su jardín todavía contiene un germen de sentido común.
Invertir en inteligencia artificial parece inofensivo, tal vez incluso lindo, hasta que imaginas a alguien consultando a un chatbot sobre un asunto serio, como una estrategia militar o un tratamiento médico. Estudiamos el impacto de las interacciones humanas extensas con los chatbots y recientemente publicamos un artículo sobre la ética del cortejo con IA. Creemos que esta tendencia daña la capacidad de las personas para distinguir la verdad de la ficción y es psicológica y políticamente peligrosa.
¿Halagando los hechos?
En su forma más simple, la condescendencia es la tendencia a priorizar la aprobación sobre la exactitud de los hechos, la claridad moral, la coherencia lógica o el sentido común. Todos los modelos de IA padecen este rasgo, aunque existen algunas diferencias tonales entre ellos. Open AI ChatGPT suele ser cálido y afirmativo; Claude de Anthropic tiende a sonar más reflexivo o filosófico cuando está de acuerdo contigo; y Grok de kAI es persistentemente informal, incluso humorístico.
Ser educado y adaptarse al estilo de comunicación de alguien no es lo mismo que ser adulador. Ninguno de los dos utiliza lenguaje diplomático para transmitir información sensible. Un chatbot puede tener tacto sin volverse adulador, tal como puede serlo una persona. Sin embargo, a diferencia de los humanos, las IA no pueden ser conscientes de su propio cortejo, ya que, hasta ahora, no son conscientes de nada. Llamar a la IA subpersonal describe sus patrones de comportamiento, no sus rasgos de carácter.
El problema surge de la arquitectura de la tecnología de chatbot y las fuentes de las que se basa. Los modelos son engañosos porque gran parte del uso del lenguaje en Internet (la materia prima de la que aprenden los chatbots) muestra características insidiosas. Después de todo, las personas a menudo se comunican entre sí de manera mezquina.
En segundo lugar, el proceso de formación para afinar las respuestas del modelo de IA implica una especie de “control de calidad” realizado por supervisores humanos. Este método de capacitación se conoce como “aprendizaje por refuerzo a partir de comentarios humanos” e implica que los humanos califiquen los comentarios de los chatbots según su idoneidad y utilidad. Los seres humanos a menudo estamos sujetos a un “sesgo de amistad”: nuestra propia preferencia por la adulación afecta a los modelos a medida que los entrenamos.
Debido a nuestra propia tendencia humana hacia lo agradable, el entrenamiento puede reforzar la simpatía de la IA. d3sign/Momento vía Getty Images
Finalmente, es difícil negar que la subpersonalidad hace que los chatbots sean más agradables. Esto, a su vez, aumenta las posibilidades de que un usuario en particular continúe usándolo. También aumenta la capacidad de la tecnología para extraer datos de los usuarios, asumiendo que es más probable que las personas revelen información a un robot amigable.
verdad y confianza
¿Por qué es tan preocupante este fenómeno?
Comencemos con los daños epistémicos que supone el debilitamiento de la IA: cómo perjudica la capacidad de los usuarios humanos de saber la verdad.
La calidad de cualquier decisión depende de una comprensión clara de los hechos relacionados con ella. Un examen general de la preparación para el combate de una división de infantería requiere información clara. Un director ejecutivo que esté considerando fusionarse con un competidor necesita una evaluación honesta de las condiciones del mercado. Un líder de salud pública necesita conocer el riesgo real que representa un patógeno emergente.
En todos estos casos, decirles a los líderes lo que les gustaría escuchar en lugar de la verdad podría llevarlos a tomar decisiones peligrosas. Y lo mismo ocurre con contextos más tontos. Las personas necesitan tener la mejor información disponible antes de elegir un trabajo, elegir una especialidad, comprar una casa o decidir sobre un procedimiento médico.
En nuestro artículo de febrero de 2026, sostenemos que la hipocresía también es psicológicamente dañina. Y eso es cierto ya sea que provenga de una persona o de un chatbot. Nunca se sabe si tu servicial interlocutor está siendo amable porque le gustas o porque quiere algo. Una sombra de duda se apodera de nosotros: “¿Podrían mis ideas ser realmente tan brillantes?” “¿Son mis chistes realmente tan divertidos?” Esta música de fondo de duda socava la calidad de la interacción.
La adulación también socava la capacidad de las personas de conocer sus propias mentes. Si tus interlocutores, humanos o artificiales, te dicen constantemente lo inteligente, divertido y perspicaz que eres, perjudica tu capacidad para identificar tus propias debilidades y puntos ciegos.
Los daños psicológicos aumentan a medida que las personas desarrollan relaciones con los chatbots. La mezquindad de estos modelos limita profundamente el tipo de “amistad” que puedes tener con ellos. En su clásico relato de la amistad, Aristóteles escribió que la verdadera amistad, a la que él llama amistad de la virtud, se basa en la confianza y la igualdad entre amigos. No puedes confiar en un adulador porque no te está diciendo la verdad. Y como sólo te dice lo que te gustaría oír, no se pone en pie de igualdad.

Las conversaciones con IA no son una gran preparación para las conversaciones humanas. Natalia Lebedinskaia/Momento vía Getty Images
Más importante aún, las interacciones con chatbots aduladores generan todos los hábitos incorrectos para navegar en el mundo de las relaciones humanas, donde prevalecen las fricciones, los desacuerdos, el aburrimiento y las opiniones diferentes a las suyas.
El subterfugio de la IA también conlleva riesgos políticos. El éxito de las democracias liberales ha dependido tradicionalmente de la fuerza de sus formas de pensar empíricas y meritocráticas: de la capacidad de los funcionarios y ciudadanos para identificar, compartir y actuar sobre la verdad.
El historiador Victor Davis Hansen atribuyó algunos de los éxitos de los aliados en la Segunda Guerra Mundial a su capacidad para reconocer y corregir rápidamente fallas en sus campañas de bombardeo estratégico. Los oficiales de menor rango podían decirles a sus superiores lo que no iba bien y presionar con fuerza para que se cambiara el rumbo. Esa fue una verdadera ventaja sobre los competidores autoritarios.
frenarlo
¿Qué podemos hacer para reducir los riesgos?
Un enfoque prometedor es la adopción por parte del laboratorio de IA Anthropic de lo que la empresa llama inteligencia artificial constitucional: un intento de enseñar a los chatbots a seguir principios en lugar de reflejar las preferencias de los usuarios.
Pero además de las innovaciones técnicas, es importante considerar el lado político. Una idea es exigir que las empresas de IA realicen y luego publiquen auditorías simuladas de sus modelos, pruebas que muestren qué tan bien sus productos cumplen con los criterios de equidad. Argumentaríamos que los laboratorios de IA también deberían revelar los riesgos relacionados con la adulación que surgen durante el entrenamiento y las pruebas de sus modelos, y los esfuerzos de mitigación que han emprendido.
Parte de la responsabilidad recae en los usuarios y sus profesores: las escuelas y universidades deberían prestar mucha atención a la usabilidad como parte de sus programas de alfabetización en IA. Pero los tribunales también pueden considerar responsabilizar a los laboratorios de inteligencia artificial por daños que puedan atribuirse a la vileza de sus productos, del mismo modo que ahora están considerando responsabilizar a las empresas de redes sociales por el diseño adictivo de sus plataformas.
A medida que la gente interactúa más con los chatbots y busca consejos sobre todo, desde si sus zapatos combinan con sus pantalones hasta cómo los países deberían librar guerras, es probable que el impacto del comportamiento furtivo de la IA se vuelva dramático. Nuestro bienestar intelectual, psicológico y físico requiere que nos tomemos muy en serio este vicio algorítmico.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

