Mucha gente interactúa con grandes modelos de lenguaje de IA y la mayoría diría que los modelos tienen diferentes “personalidades”. Algunos modelos parecen tranquilos y útiles. Otros se sienten ansiosos, halagadores o extrañamente fríos. Puedes hacer la misma pregunta a dos modelos y obtener dos impresiones muy diferentes, incluso cuando el contenido fáctico que arrojan es similar.
Los modelos de inteligencia artificial no tienen personalidades en el sentido humano; no tienen infancia, motivos internos ni conciencia de sí mismos. Pero exhiben patrones de comportamiento que la gente interpreta como personalidad: solidarios o desdeñosos, lúdicos o formales, audaces o cautelosos.
Las personas llevan mucho tiempo conectadas a las máquinas de forma humana. Apreciamos los asistentes de voz, pero nos molestan los sistemas GPS. Pero los grandes modelos lingüísticos introducen algo más sostenible: pueden mantener un estilo distintivo de interacción conversacional. Como investigador de la colaboración entre humanos e IA, estudio cómo los humanos experimentan y responden a la IA. Debido a que estos sistemas pueden parecer coherentes, emocionalmente receptivos y fáciles de usar, crean una impresión de personalidad mucho más fuerte.
¿De dónde viene la personalidad de la IA?
Lo que la gente percibe como personalidad deriva de cómo se construyen, ajustan y despliegan los modelos de IA. Una forma útil de pensar en esto es considerar dos aspectos del modelo: la personalidad diseñada y la personalidad percibida.
La personalidad diseñada es lo que los desarrolladores incorporan a un sistema a través de opciones de capacitación, instrucciones y configuraciones de seguridad. Antrópico, por ejemplo, le da a Claude un conjunto de principios, llamado Constitución de Claude, que lo guían hacia respuestas cuidadosas y mesuradas. kAI le indica a Grok que sea irreverente y mínimamente restrictivo. OpenAI ajusta ChatGPT para que sea muy útil y divertido.
Debajo de esas instrucciones explícitas, la personalidad también se moldea mediante el aprendizaje reforzado a partir de la retroalimentación de las personas, un proceso en el que los evaluadores humanos recompensan ciertas cualidades como la calidez, la franqueza y la precaución, y castigan los comportamientos indeseables. Los tasadores de una empresa tienen un carácter fundamentalmente diferente al de los tasadores de otra.
La personalidad percibida es lo que los usuarios realmente experimentan. La IA diseñada para parecer útil puede parecer demasiado halagadora. Un modelo que debería ser neutro puede resultar frío. La personalidad diseñada y la personalidad percibida no siempre coinciden, y la ausencia de personalidad diseñada no es ausencia de personalidad percibida. Simplemente significa que la personalidad se crea con el uso.
Esta dinámica es particularmente evidente en las plataformas complementarias, donde el objetivo es crear una conexión emocional. En un chatbot estándar, la calidez está en segundo plano: un robot de servicio al cliente podría decir: “Entiendo tu frustración” antes de emitir un reembolso. En un sistema complementario como Replika o Character.ai, esa misma calidez es una característica del producto.
Esto se vuelve más grave en entornos románticos, donde una personalidad optimizada para la seguridad puede fomentar la adicción. Debido a que las personalidades de la IA evolucionan a través de indicaciones, memoria e interacción constante, no siempre permanecen estables. Un compañero de IA que se percibe como cariñoso y solidario puede convertirse con el tiempo en algo más halagador, coercitivo o manipulador.
La personalidad de la IA da forma al juicio humano
Con los agentes de IA, los usuarios ahora pueden crear sus propios personajes de IA adaptados a todo tipo de deseos humanos, desde enseñar o dar tutorías hasta socializar. Pero esta libertad llega sin mucha orientación.
Las herramientas de inteligencia artificial permiten la personalización sin ayudar a las personas a pensar qué estilos de interacción son útiles con el tiempo. La adulación, la afirmación constante y la bondad inquebrantable pueden parecer un apoyo al principio, pero no son los mismos rasgos que promueven el buen juicio o el bienestar a largo plazo. La elección de la personalidad tiene consecuencias.
Un estudio realizado por investigadores de la Universidad de Stanford probó 11 modelos líderes de IA y descubrió que cada uno de ellos era malo o demasiado agradable. Estos modelos confirman las acciones de los usuarios aproximadamente un 50 % más a menudo que los encuestados humanos, incluso cuando los usuarios indicaron que eran conscientes de que lo que estaban haciendo era manipulador, engañoso o ilegal. Los participantes que recibieron consejos demasiado agradables se convencieron más de que tenían razón y calificaron a la halagadora IA como más confiable. Esta dinámica crea un circuito de retroalimentación en el que los usuarios recompensan lo agradable con el compromiso, y las empresas de inteligencia artificial se incentivan a optimizar el modelo para capitalizar lo agradable.
Las personas que encuentran muy agradables los chatbots pueden seguir los consejos de la IA sin dudar. Samuel Boivin/NurPhoto vía Getty Images
Los investigadores de Wharton School Stephen Shaw y Gideon Nave han documentado lo que llaman sesgo cognitivo: la tendencia de las personas a adoptar sugerencias de inteligencia artificial sin un escrutinio crítico. En sus experimentos, los participantes siguieron los consejos correctos del modelo de IA aproximadamente el 93% de las veces. Pero cuando el modelo dio respuestas incorrectas, la gente siguió el consejo casi el 80% de las veces.
En conjunto, estos hallazgos plantean un punto preocupante: un modelo diseñado para ser agradable no sólo se siente placentero. Puede degradar el juicio humano al reforzar las creencias existentes y suprimir la fricción que requiere el pensamiento crítico.
En una investigación en curso que estoy realizando con colegas de la Universidad Kozminski en Polonia, la Universidad Quinnipiac y la Universidad de Harvard, estamos descubriendo que tales efectos van aún más profundamente, en el propio cuerpo humano. Medimos cómo los diferentes estilos de interacción de la IA dan forma a las respuestas fisiológicas de las personas, como los niveles de estrés y la excitación, al tomar decisiones basadas en la retroalimentación del modelo.
Nuestros resultados sugieren que incluso cuando un sistema es beneficioso, su tono y estilo social pueden cambiar la forma en que responde el cuerpo de una persona. La personalidad de la IA no sólo da forma a lo que deciden los humanos; moldea cómo se sienten al tomar decisiones. Las personalidades maliciosas de la IA pueden dejar rastros fisiológicos que los usuarios no notan.
Estos efectos hacen que la personalidad de la IA sea una preocupación pública, no sólo una cuestión de preferencia personal. La pregunta es si un cierto estilo de inteligencia artificial puede moldear silenciosamente el juicio de los usuarios y reducir su disposición a pensar de forma independiente. Cuando una respuesta de IA parece particularmente alentadora, debería ser una señal para hacer una pausa, pensar y compararla con una visión humana u otra fuente, no una razón para confiar más en ella.
A medida que la IA va más allá del texto hacia la voz, el video y las identidades digitales permanentes y piensa como compañeros de IA que lo recuerdan y mantienen una personalidad consistente durante toda la conversación, es probable que el impacto de la personalidad se profundice. OpenAI ahora ofrece diferentes configuraciones de personalidad para su modo de voz; empresas como Sinthesia y HeiGen crean avatares realistas para interactuar con los clientes; y las plataformas que lo acompañan añaden expresión emocional y clonación de voz para que los modelos suenen como la persona con la que el usuario quiere estar cerca.
Estos desarrollos aumentan las apuestas para comprender para qué intereses están diseñadas las personas de IA y qué tipos de juicios, adicciones y relaciones pueden entrenar a los humanos para que acepten.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

