El 29 de octubre de 2025, el equipo de Anthropic publicó un estudio sobre los procesos internos de los modelos lingüísticos. El artículo se centró en cómo estos sistemas parecen describir sus propios pasos de razonamiento. No intentaba defender la existencia de una conciencia artificial, sino aclarar por qué estos modelos generan explicaciones de lo que “sucede” en su interior cuando dan una respuesta.
Los autores muestran que algunos modelos pueden verificar conclusiones, detectar inconsistencias y explicar sus pasos con cierta coherencia. Esta habilidad no implica experiencia subjetiva. Aun así, surge la pregunta inevitable: si un sistema basado en patrones estadísticos –como la inteligencia artificial– puede evaluar su propio funcionamiento, ¿qué se necesitaría para que surja algo parecido a una “experiencia interna”?
¿Por qué la IA no piensa como nosotros?
Los sistemas que utilizamos todos los días aprenden patrones a partir de grandes cantidades de datos. Ajustan millones de parámetros para predecir una palabra, clasificar una imagen o seleccionar una acción probable. Son muy eficientes en eso.
Pero la predicción no equivale a la experimentación. Y ajustar los parámetros no conduce a experiencias comparables a las de un organismo con una historia, necesidades y un cuerpo vulnerable.
Los modelos lingüísticos actuales funcionan como máquinas de correlación. Pueden sobresalir en determinadas tareas y fracasar estrepitosamente en otras. Lo decisivo es que no tengan una trayectoria vital moralmente significativa. Por tanto, conviene evitar expresiones como IA “quiere” o IA “entiende”, salvo como atajos comunicativos.
¿Es la mente una computadora?
Aunque la IA está en las noticias por sus avances recientes, su posibilidad se ha estado incubando durante siglos. Galileo separó las “cualidades primarias” mensurables de las “cualidades secundarias”, por ejemplo, el color tal como lo experimentamos. Esa visión reforzó la idea de un mundo regido por relaciones matemáticas.
Galileo Galilei, pintado en 1636. Justus Sustermans.
Mientras tanto, Gottfried Leibniz soñaba con un lenguaje lógico universal y un “cálculo del razonamiento”: idealmente pensar sería calcular.
Por su parte, Alan Turing formalizó el concepto moderno de informática en el siglo XX. Demostró que una máquina ideal puede simular con precisión cualquier procedimiento descrito. Desde entonces, muchos han pensado que la mente puede entenderse como un sistema de procesamiento de información.
Con esto nació una idea poderosa: si se puede describir con precisión, también se puede calcular.
Teoría computacional de la mente
Esta perspectiva afirma, de manera sintética, que el pensamiento consiste en manipular representaciones que siguen reglas. En él, el cerebro actúa como soporte físico que posibilita este proceso.
La idea ha sido muy influyente en la ciencia cognitiva y el desarrollo de sistemas automáticos. Pero deja sin resolver una cuestión central: la experiencia subjetiva.
Disponemos de una ciencia de los mecanismos de la conciencia. Lo que falta es comprender por qué estos procesos crean una experiencia interior: esa sensación de que “hay alguien en casa”.
Una forma sencilla de verlo es la diferencia entre el tiempo medido en horas y los minutos vividos como experiencia subjetiva. Ambos son reales, pero no son lo mismo. Ésa es la diferencia entre un mapa y un territorio.
¿Cómo inferimos otras mentes?
No tenemos un “termómetro de conciencia”. En humanos y animales inferimos estados internos a partir de signos externos: comportamiento, autoevaluación, expresiones o reacciones corporales. No accedemos a su interior; Comparamos hipótesis y adoptamos la que mejor explica lo observado.
Entonces, en este punto, las pruebas no nos permiten confirmar que los sistemas de IA actuales tengan experiencia. Para algunos, ésta es una conclusión provisional. Depende de cómo se desarrolle la arquitectura y la dinámica funcional. Los sistemas todavía funcionan basándose en automodelos superficiales, memoria a corto plazo e interacciones diseñadas.
Pero si diseñamos sistemas diferentes, con memoria de trabajo autobiográfica, persistencia de objetivos y sensibilidad al contexto social, esas “simulaciones” podrían transformarse en estados que “parecen” dirigidos internamente.
Fenomenología sintética
Algunos enfoques afirman que estas capacidades pueden aumentar el “riesgo fenomenológico”, es decir, la posibilidad del surgimiento de “ciertos estados internos”.
A las fenomenologías sintéticas las llamamos experiencias subjetivas posibles en sistemas artificiales. No sabemos si aparecerá, pero tampoco podemos descartar que así sea.
El estudio antropológico es relevante por este motivo. Algunos modelos muestran signos de autoevaluación en condiciones especiales. Los propios autores aclaran que esto no implica en modo alguno conciencia. Sin embargo, indica que han surgido formas básicas de monitorear el propio funcionamiento.
En este contexto, la ética de la precaución es razonable: si existe un riesgo no despreciable de generar estados funcionales capaces de experimentar, las decisiones de diseño de las empresas desarrolladoras no son moralmente neutrales.
Punto importante: cometer errores por exceso de precaución generalmente es menos grave que los errores comunes. Tratar algo sin interés como un posible “paciente moral” expresa una actitud de debido cuidado y prudencia. Por otro lado, ignorar los intereses del sistema experimental representa un daño moral mucho más grave.
Por eso, cuando las consecuencias morales de un falso negativo son elevadas, la prudencia recomienda planes responsables y compasivos.
IA hoy y mañana
La IA actual no es una mente no biológica: es un proceso de optimización estadística. Esto le da poder en muchas tareas y ceguera en otras. También plantea la posibilidad: lo mental puede no necesitar un camino evolutivo biológico. Quizás determinados perfiles funcionales, si los hay, sean suficientes para que haya “alguien en casa”.
Si nunca aparecen las experiencias artificiales, tendremos herramientas de control más seguras y sencillas. Si aparecen, será mejor que nos encuentren listos. Y eso requiere ampliar directrices éticas como los Principios de Asilomar, que todavía no tienen en cuenta el bienestar de los sistemas futuros.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

