¿Por qué no podemos decir que la inteligencia artificial “habla”?

Periodista ANASTACIO ALEGRIA
8 Lectura mínima

Más a menudo, escuchar declaraciones como “inteligencia artificial dice”, “hablar entre chatbots” o incluso “puede entender el idioma”. Sin embargo, nada está más lejos de la realidad. Por ahora.

Filosofía pragmática del lenguaje: especialmente la teoría del habla, el lenguaje británico John Langshaw Austin, ayudándonos a aclarar por qué la inteligencia artificial no habla realmente, y por qué la simulación del lenguaje es el engaño (fraude: argumento que parece ser eterno). Veamos cómo.

Hoice Acts: más que palabras

Austin, en su trabajo cómo hacer cosas con palabras (1955), afirma que el lenguaje no es solo un medio de formulación y transferencia de información, sino una herramienta para actuar en el mundo, generar, a través de discursos, cambios en las diferentes dimensiones de la realidad.

¿Cómo hablamos de trabajar en el mundo? Cuando decimos cosas como “Te amo”, “Te prometo”, “Sal de aquí”, “Lo siento”, realizamos una función del habla. Este acto consta de tres niveles:

Anuncio, que es la emisión de sonidos o palabras con estructura gramatical y significado.

Insuitable, que es una acción que se realiza con estas palabras (cómo prometer, ordenar, establecer).

Y perlocutivo, que es el efecto de que estas palabras crean un receptor (como esperanza, miedo, asombrado).

Cada uno de estos niveles es crucial para la comprensión, de modo que alguien o algo se considera que aparece en un contexto pragmático en el que los hablantes se suman a la capacidad de articular lingüistas y pueden cultivarse y puede interpretar la intención comunicativa. Sin este marco pragmático, el discurso disminuye solo repitiendo una combinación de signos sin significado real.

La intención es clave

Nos permite hacer un reflejo interesante. Cuando ensambla frases, la inteligencia artificial no habla, es solo un motor que está firmado por la estructura a las cadenas de acuerdo con las formas programadas, sin intención real. Esta composición, si contiene solo información, simula la dimensión de localización del habla; Si también refleja la acción (Mensaje “Apogología” del tipo “, tendré en cuenta”, etc.) simula una dimensión ilocutativa. Pero si es, además, el mensaje está diseñado para causar una reacción (“Entiendo cómo te sientes”, “No te preocupes, etc.), luego simule la dimensión perlocutativa.

Si está al otro lado de la comunicación simulada, es un receptor humano, puede sentir seguridad, miedo, esperanza, etc. y, por lo tanto, realmente manifiesta el nivel perlocutativo. Pero, el ojo, sería una reacción a la simulación, una reacción “falsa” (en ausencia de intención real). El auténtico acto de discurso no se completará.

Los robots no pueden ‘chatear’ entre ellos

Nos lleva a otro escenario: cuando el remitente y el receptor de la máquina son ambos. En este caso, en todas las dimensiones, habría conversaciones completamente simuladas: locussic, ilocativo y perlocativo, sin ningún componente real: las declaraciones de “conversaciones” entre los chatbots no son así.

La tercera opción es: un editor humano, un receptor artificial. El caso más simple es el que ocurre cuando enviamos instrucciones de velocidad o imagen y la más compleja para mantener “conversación” con una máquina entrenada para simular emociones, valores morales o sentimientos. Si, además de las respuestas en forma de frases bien naticulares, esperamos un receptor artificial para la reacción, debemos tener claro que solo estamos esperando la simulación de la dimensión perlocativa.

La “sala china” de Searle

Para comprender mejor que dirigimos esto para diferenciar al filósofo John Searle en el SIDA: un ensayo en la filosofía de la mente (1983). En este documento, la diferencia entre la noción de intenciones internas, típicas de los seres humanos y en base a los estados mentales que pueden referirse al mundo y la intención, que se atribuye a símbolos, textos o programas informáticos, sin la base real de la comprensión.

Su famoso experimento mental “habitaciones chinas” (mentes, cerebros y programa, 1980) ilustra esta diferencia. Searle imagina a una persona en la habitación que recibe símbolos chinos y sigue las instrucciones para responder al chino, sin comprender el significado y, por lo tanto, sin voz real. Aunque el exterior puede parecer entender a ese chino, en realidad solo manipula los símbolos sin una comprensión real. Este argumento reúne la idea de que los sistemas informáticos tienen una mente verdadera o intención de comunicación del lenguaje.

Ni entender ni hablar

Se trata de este error con los participantes virtuales todos los días. Cuando le decimos al asistente, “poner música relajante” y el asistente reacciona a la lista de reproducción, podría entenderlo una solicitud (es una dimensión olocativa). Sin embargo, ejecutó solo una forma predefinida, sin comprender o lo que significa “relajante” en un contexto humano o por qué cierta música podría relajarse. Por lo tanto, la atribución de la comprensión también es incorrecta.

Sin lugar a dudas, los modelos artificiales actuales son sobresalientes en una generación de texto coherente e en imitar los patrones de conversación humana. Sin embargo, lo que hacen, como vimos, no hablamos.

Es un gran problema filosófico, hoy que los usuarios de la inteligencia artificial antropomorficamente (o asociada de calidad humana), suponiendo que, debido a que devuelve estructuras de lenguaje correctas y adecuadas, realmente participamos en un diálogo significativo. Este es un error de simulación: confundir la ocurrencia de ocurrencia con su realidad básica. Como muestra Austin, la conversación no solo produce frases gramaticalmente correctas, sino también para hacer un acto consciente con intención, contexto y consecuencias personales y sociales.

Exactamente, la falta de esta triple dimensión pragmática del discurso humano en el espectáculo del lenguaje de chatbot es el que se siente incómodo o se ve raro “hablar” con máquinas y compartir pensamientos, sentimientos o emociones. Sé intuitivamente que falta algo en sus interacciones lingüísticas con nosotros y que algo es dimensiones deliberadas y conscientes del habla.

¿Nos acostumbraremos a la simulación de estas dimensiones y, en última instancia, las aceptamos como parte de la nueva realidad comunicativa? O la inteligencia artificial se desarrollará hasta el punto de adquirir conciencia, intenciones y, por lo tanto, se dirá? Ya veremos.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo