El estereotipo es que los canadienses se disculpan por todo. Te pedimos disculpas cuando te topes con nosotros. Pedimos disculpas por el tiempo. Pero a medida que avanzamos en los días grises del invierno, ese instinto nacional de cortesía choca contra un muro de fatiga.
La tentación es obvia. Con un solo clic, Help Me Write o ChatGPT de Gmail pueden generar un rechazo cortés de una invitación o un sincero agradecimiento por un suéter navideño que nunca usarás.
Es eficiente. Eso es decente. Es gramaticalmente perfecto.
También es una trampa.
Una nueva investigación sugiere que cuando entregamos nuestras interacciones sociales a la inteligencia artificial, estamos cambiando nuestra reputación. Usar inteligencia artificial para gestionar tu vida social te hace parecer menos cálido, menos moral y significativamente menos digno de confianza.
Aprender un idioma es difícil, pero incluso los hablantes nativos se sienten confundidos por la pronunciación, las connotaciones, las definiciones y la etimología. El léxico evoluciona constantemente, especialmente en la era de las redes sociales, donde se introducen rápidamente nuevos memes, frases, jerga, jerga y modismos. Slanguage, una nueva serie de The Conversation Canada, profundiza en cómo el lenguaje da forma a la forma en que vemos el mundo y lo que revela sobre la cultura, el poder y la pertenencia. Bienvenido al salvaje y maravilloso mundo de la lingüística.
La trampa de la eficiencia
En nuestra economía de consumo, amamos la automatización. Cuando pido un paquete, no necesito que un humano escriba un aviso de entrega; Sólo quiero una caja en mi puerta. Aceptamos, e incluso exigimos, la eficacia de las marcas.
Pero nuestros amigos no son marcas y nuestras relaciones no son transacciones.
Un nuevo estudio publicado en Computers in Human Behavior, titulado “Percepciones negativas de la subcontratación de la inteligencia artificial” por el académico británico Scott Classens y otros investigadores, sugiere que la dinámica emocional sigue reglas diferentes a las que dan forma a situaciones más prácticas. Los investigadores descubrieron que, si bien toleramos la ayuda de la IA para tareas técnicas como escribir código o planificar nuestra agenda diaria, la castigamos severamente en contextos sociales.
Cuando se utiliza la inteligencia artificial para escribir una carta de amor, una disculpa o unos votos matrimoniales, el destinatario ve una falta de esfuerzo en lugar de un texto bien escrito. En las relaciones, el esfuerzo es la moneda fuerte del cuidado.
Menos cálido, menos auténtico
Podrías pensar que puedes hackear este sistema si eres honesto. Tal vez le digas a tu amigo: “Usé ChatGPT para ayudarme a encontrar las palabras correctas, pero lo edité yo mismo”.
Desafortunadamente, los datos no muestran que esto sea una solución.
El trabajo de Claessens exploró un escenario del “mejor de los casos”, donde el usuario trataba la IA como una herramienta colaborativa, usándola para ideas y comentarios en lugar de copiar palabra por palabra, y era completamente transparente sobre el proceso.
Los investigadores descubrieron que las consecuencias sociales de este enfoque dependían en gran medida de la tarea: para tareas de relaciones sociales como escribir cartas de amor, votos matrimoniales o disculpas, los participantes aún calificaron al remitente como significativamente menos moral, menos cálido y menos auténtico que alguien que no usó IA.
Sin embargo, para tareas instrumentales o no sociales como escribir código de computadora o preparar recetas para la cena, este uso colaborativo y honesto de la IA no condujo a percepciones negativas de carácter moral o calidez, incluso si todavía se percibía que el usuario había puesto menos esfuerzo.
Esto crea una ansiedad singularmente moderna en el afable canadiense. Pedimos disculpas por mantener enlaces sociales. Pero si utilizamos la inteligencia artificial para disculparnos, estamos rompiendo el vínculo que intentamos mantener. Una disculpa generada por un algoritmo, por muy pulida que sea, indica que el enlace no vale los 20 minutos que le tomó escribirlo usted mismo.
Auténtica ineficiencia
Esta fricción no se limita a los mensajes de texto.
Noté un patrón similar en mi propia investigación preliminar sobre el comportamiento del consumidor y el arte generado por IA. Este trabajo fue realizado con el profesor asociado Jing Zhuom de la Universidad de Columbia Británica, Okanagan y se presentará en la Conferencia de Invierno de la Asociación Estadounidense de Marketing.
Los consumidores a menudo descartan las grandes creaciones de IA en las artes creativas porque carecen del peso moral de la intención humana.
Creo que estamos entrando en una era en la que la ineficiencia y la imperfección se convertirán en productos premium. Así como una bufanda equivocada, tejida a mano, significa más que un torpe mensaje de texto de un amigo, producido en masa y en fábrica, se vuelve más valioso que un soneto escrito con un modelo aleatorio del lenguaje de Internet.
El famoso “Lo siento canadiense” sólo tiene sentido porque representa un momento de humildad, un sentimiento de culpa, un esfuerzo por encontrar las palabras adecuadas. Cuando realizamos este tipo de trabajo, también transmitimos significado.
Entonces, mientras te ocupas de tu bandeja de entrada este invierno, resiste la tentación de dejar que un robot tome el volante por si acaso. Es posible que sus clientes necesiten el correo electrónico perfecto, pero sus amigos y familiares ciertamente no. Quieren saber que te preocupas lo suficiente como para encontrar las palabras tú mismo.
Joshua González no trabaja, consulta, posee acciones ni recibe financiación de ninguna empresa u organización que se beneficiaría de este artículo, y no ha revelado afiliaciones relevantes aparte de su nombramiento académico.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

