Metacognición artificial: dar a la IA la capacidad de “pensar” en su “pensamiento”

REDACCION USA TODAY ESPAÑOL
10 Lectura mínima

¿Alguna vez has tenido la experiencia de leer una oración varias veces y darte cuenta de que todavía no la entiendes? Como les han enseñado a muchos estudiantes de primer año, cuando te das cuenta de que estás dando vueltas, es hora de cambiar tu enfoque.

Este proceso de tomar conciencia de que algo no funciona y luego cambiar lo que estás haciendo es la esencia de la metacognición o pensar sobre pensar.

Su cerebro monitorea su pensamiento, reconoce el problema y controla o ajusta su enfoque. De hecho, la metacognición es fundamental para la inteligencia humana y hasta hace poco ha sido poco estudiada en los sistemas de inteligencia artificial.

Mis colegas Charles Courchaine, Hefei Qiu y Joshua Iacoboni y yo estamos trabajando para cambiar eso. Hemos desarrollado un marco matemático diseñado para permitir que los sistemas de inteligencia artificial generativa, especialmente los modelos de lenguaje grandes como ChatGPT o Claude, monitoreen y regulen sus propios procesos “cognitivos” internos. En cierto sentido, puedes imaginar que le da a la IA generativa un monólogo interno, una forma de evaluar su propia confianza, detectar confusión y decidir cuándo pensar más en un problema.

Por qué las máquinas necesitan autoconciencia

Los sistemas de inteligencia artificial generativa actuales son extremadamente capaces, pero fundamentalmente inconscientes. Generan respuestas sin saber cuán segura o confusa puede ser su respuesta, si contiene información contradictoria o si el problema merece mayor atención. Esta limitación se vuelve crítica cuando la incapacidad de la IA generativa para reconocer su propia incertidumbre puede tener consecuencias graves, especialmente en aplicaciones de alto riesgo como el diagnóstico médico, el asesoramiento financiero y la toma de decisiones autónoma en un vehículo.

Por ejemplo, considere un sistema de IA generativa médica que analiza los síntomas. Puede sugerir de manera confiable un diagnóstico sin ningún mecanismo para reconocer situaciones en las que podría ser más apropiado hacer una pausa y pensar, como “Estos síntomas se contradicen entre sí” o “Esto es inusual, debería pensar más detenidamente”.

Desarrollar tal capacidad requeriría metacognición, que incluye la capacidad de monitorear el propio juicio a través de la autoconciencia y controlar las respuestas a través de la autorregulación.

Inspirado en la neurobiología, nuestro marco tiene como objetivo darle a la IA generativa una apariencia de estas capacidades utilizando lo que llamamos un vector de estado metacognitivo, que es esencialmente una medida cuantificada del estado “cognitivo” interno de una IA generativa en cinco dimensiones.

5 dimensiones de la autoconciencia de la máquina

Una forma de pensar en estas cinco dimensiones es imaginar que se le da a un sistema de IA generativa cinco sensores diferentes para su propio pensamiento.

Conciencia emocional, para ayudar a monitorear el contenido cargado de emociones, lo que podría ser importante para prevenir efectos nocivos. Puntuación de validez, que mide la confianza que tiene un modelo de lenguaje grande sobre la validez de su respuesta. Una experiencia de emparejamiento, en la que comprueba si la situación es similar a algo que haya encontrado antes. Detección de conflictos, para que pueda identificar información contradictoria que necesita resolución. La importancia del problema, para ayudarle a evaluar lo que está en juego y la urgencia de priorizar los recursos.

Cuantificamos cada uno de estos conceptos dentro de un marco matemático general para crear un vector de estado metacognitivo y usarlo para controlar un conjunto de grandes modelos de lenguaje. Esencialmente, el vector de estado metacognitivo convierte las autoevaluaciones cualitativas del modelo de lenguaje grande en señales cuantitativas que puede utilizar para controlar sus respuestas.

Por ejemplo, cuando la confianza de un modelo de lenguaje grande en una respuesta cae por debajo de cierto umbral, o los conflictos en la respuesta exceden algunos niveles aceptables, puede pasar de un procesamiento rápido e intuitivo a un razonamiento lento y deliberativo. Esto es análogo a lo que los psicólogos llaman pensamiento del Sistema 1 y Sistema 2 en los humanos.

Este diagrama conceptual muestra la idea básica para hacer que un conjunto de modelos de lenguaje grandes sean conscientes de su estado de procesamiento. Ricky J. Sethi Dirige la orquesta

Piense en un gran conjunto modelo de lenguaje como una orquesta en la que cada músico (un gran modelo de lenguaje individual) interviene en determinados momentos en función de las señales recibidas del director. El vector de estado metacognitivo actúa como la conciencia del director, monitoreando constantemente si la orquesta está en armonía, si alguien está desafinado o si un pasaje particularmente difícil requiere atención adicional.

Al interpretar una pieza familiar y bien ensayada, como una melodía folclórica simple, una orquesta puede tocar fácilmente al unísono de manera rápida y eficiente con una mínima coordinación requerida. Este es el modo Sistema 1. Cada músico conoce su parte, las armonías son sencillas y el conjunto funciona casi de forma automática.

Pero cuando la orquesta se topa con una pieza de jazz compleja con compases conflictivos, armonías disonantes o partes que requieren improvisación, los músicos necesitan más coordinación. El director ordena a los músicos que intercambien roles: algunos se convierten en líderes de sección, otros proporcionan anclaje rítmico y aparecen solistas para ciertos pasajes.

Este es el tipo de sistema que esperamos crear en un contexto computacional implementando nuestro marco, orquestando un conjunto de grandes modelos de lenguaje. El vector de estado metacognitivo informa a un sistema de control que actúa como conductor, diciéndole que cambie de modo al Sistema 2. Luego puede decirle a cada modelo de lenguaje principal que asuma diferentes roles (por ejemplo, crítico o experto) y coordinar sus interacciones complejas basándose en una evaluación metacognitiva de la situación.

una mujer con un vestido largo negro dirige la orquesta

La metacognición es como un director de orquesta que sigue y dirige un conjunto de músicos. Foto AP/Vahid Salemi Influencia y transparencia

Las implicaciones van mucho más allá de hacer que la IA generativa sea un poco más inteligente. En el ámbito de la atención sanitaria, un sistema de IA generativa metacognitiva podría reconocer cuando los síntomas no coinciden con los patrones típicos y trasladar el problema a expertos humanos en lugar de correr el riesgo de un diagnóstico erróneo. En educación, podría ajustar las estrategias de enseñanza cuando detecte confusión en los estudiantes. Al moderar el contenido, podría identificar situaciones matizadas que requieren juicio humano en lugar de aplicar reglas estrictas.

Quizás lo más importante es que nuestro marco hace que la toma de decisiones de IA generativa sea más transparente. En lugar de una caja negra que simplemente produce respuestas, obtenemos sistemas que pueden explicar sus niveles de confianza, identificar sus incertidumbres y mostrar por qué eligieron ciertas estrategias de razonamiento.

Esta interpretabilidad y explicabilidad es fundamental para generar confianza en los sistemas de IA, especialmente en industrias reguladas o aplicaciones críticas para la seguridad.

El camino a seguir

Nuestro marco no da a las máquinas conciencia o verdadera autoconciencia en el sentido humano. Más bien, esperamos proporcionar una arquitectura computacional para la asignación de recursos y la mejora de la respuesta que también sirva como un primer paso hacia enfoques más sofisticados para una metacognición artificial completa.

La siguiente fase de nuestro trabajo implica validar el marco a través de pruebas exhaustivas, medir cómo el monitoreo metacognitivo mejora el desempeño en diversas tareas y ampliar el marco para comenzar a razonar sobre el razonamiento o el metarazonamiento. Estamos particularmente interesados ​​en escenarios donde el reconocimiento de la incertidumbre es crucial, como los diagnósticos médicos, el razonamiento legal y la generación de hipótesis científicas.

Nuestra visión final son los sistemas de inteligencia artificial generativa que no solo procesen información sino que comprendan sus limitaciones y fortalezas cognitivas. Esto significa sistemas que sepan cuándo tener confianza y cuándo ser cautelosos, cuándo pensar rápido y cuándo reducir la velocidad, y cuándo están calificados para responder y cuándo ceder ante los demás.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo