La mente en modo ‘low power’: ¿para qué pensar si la IA ya lo está haciendo?

REDACCION USA TODAY ESPAÑOL
8 Lectura mínima

Imaginemos que un día dejamos de pensar. No porque alguien lo prohibiera o porque fuéramos incompetentes, sino porque ya no era necesario, porque había algo que podía tomar la decisión por nosotros de forma más rápida, más amable y peligrosamente persuasiva. Llamar sería innecesario; Dudando, perdiendo el tiempo.

Esta idea aparece en la popular serie reciente Pluribus, creada por Vince Gilligan, que plantea un mundo donde las decisiones individuales se diluyen en una especie de mente colectiva. No como una amenaza violenta, sino como una solución cómoda y funcional.

Algo muy similar empieza a ocurrir con nuestra forma de pensar. Incorporar la inteligencia artificial (IA) a la vida cotidiana no es sólo un avance tecnológico que optimiza tareas. Es también una transformación profunda de los procesos a través de los cuales decidimos, pensamos y creamos. Así, la IA generativa comienza a ocupar un lugar ambiguo: es a la vez una herramienta poderosa y una muleta tentadora.

Delegarlo puede llevarnos allí más rápido, pero plantea una pregunta aún más inquietante: ¿Qué sucede con nuestras capacidades cognitivas cuando dejamos de seguir el camino?

El riesgo de pensar con poco esfuerzo

La ficción de Gilligan presenta esta desintegración no como una elección consciente, sino como una intrusión repentina: una inteligencia extraña que expande y estandariza el pensamiento. A partir de ese momento, la duda deja de actuar como fuerza impulsora del pensamiento y el conflicto interno desaparece. La subjetividad no se cancela por imposición, sino por sustitución.

Unos pocos seres humanos en Pluribus fueron “salvados” de la mente común. AppleTV

En realidad, la neurociencia está empezando a identificar un fenómeno inquietantemente similar bajo el concepto de sedentarismo cognitivo. La delegación sistemática de tareas cognitivas no sólo amenaza nuestra autonomía y pensamiento crítico, sino que también permite que la IA funcione como una infraestructura que accede al inconsciente para condicionar el comportamiento. Por tanto, es imperativo proteger los derechos del yo inconsciente, una advertencia que se repite en numerosos estudios y críticas de la literatura actual. Esta preocupación no es sólo teórica: la evidencia científica reciente proporciona datos que la respaldan.

Un estudio del MIT Media Lab ofrece una pista empírica sobre lo que sucede cuando el pensamiento se delega por completo. Los participantes que confiaron completamente en herramientas de escritura de IA generativa mostraron una menor activación de áreas del cerebro involucradas en la memoria y el razonamiento. El efecto más pronunciado fue el conductual: la mayoría no podía recordar ni explicar el contenido que acababa de producir. Sin esfuerzo cognitivo, la información no se integra; simplemente sucede.

El estudio en sí pone estos resultados en perspectiva al compararlos con investigaciones anteriores sobre el uso de motores de búsqueda. La búsqueda de información obliga a leer, evaluar, rechazar y tomar decisiones, proceso que mantiene la mente activa y fortalece el sentido de autoría. Cuando ese camino desaparece y el resultado llega ya cerrado, no sólo cambia lo que sabemos, sino también la forma en que aprendemos a pensar.

La trampa de la pereza metacognitiva

El problema, por tanto, no es sólo el olvido de datos, sino también una transformación más profunda de la forma en que se procesa la información. La literatura científica describe este fenómeno como pereza metacognitiva: la tendencia a delegar no sólo la ejecución, sino también la planificación y el control del propio pensamiento.

Un estudio experimental, publicado en el British Journal of Educational Technology, muestra claramente esta paradoja. Los estudiantes que usaron ChatGPT obtuvieron mejores calificaciones en sus trabajos, pero no aprendieron más que los que no lo hicieron. El producto final mejora, pero la formación no. La explicación apunta a un cambio en el aprendizaje autorregulado (SRL): al recibir respuestas ya estructuradas, los sujetos reducen el esfuerzo de planificación y elaboración cognitiva, limitándose a una edición superficial.

Desde una perspectiva sociológica, esta dinámica se ve reforzada por lo que Michael Gerlich llama “carga cognitiva”. Basado en un análisis de 666 participantes, su estudio muestra una clara correlación: cuanto mayor es la delegación de tareas mentales a la IA, menos se utiliza el pensamiento crítico. El riesgo, concluye Gerlich, no es que la tecnología piense por nosotros, sino que nos acostumbre a evitar el esfuerzo analítico necesario para evaluar la información de forma independiente.

file 20250604 56 dvfg0q.png?ixlib=rb 4.1

¿Te gustaría recibir más artículos como este? Suscríbete a Suplemento Cultural y recibe noticias culturales y una selección de los mejores artículos sobre historia, literatura, cine, arte o música, seleccionados por la editora de cultura Claudia Lorenzo.

No todo está perdido: diseñar fricciones deseables

La solución no es el rechazo, sino la introducción deliberada de la fricción deseada: utilizar la inteligencia artificial para generar desafíos y contraejemplos que nos obliguen a cuestionar la información y resistirnos a la aceptación automática de patrones que los algoritmos refuerzan. Estos patrones tienden a crear cámaras de eco y homogeneizar opiniones, no porque la IA piense por sí misma, sino porque somos nosotros quienes la usamos de una manera cómoda y afirmativa.

Para superar este riesgo, algunos estudios sobre epistemologías alternativas proponen estrategias para diversificar y contrarrestar la producción de conocimiento con la tendencia de los algoritmos a homogeneizar el pensamiento.

Desde esta perspectiva, la propuesta de Lara y Dekkers de una “mejora socrática” es particularmente relevante. Su objetivo no es asignar un papel moral a la tecnología, sino reintroducir la responsabilidad humana en la interacción. El riesgo no es que la máquina decida por nosotros, sino que dejemos de decidir aceptando respuestas alineadas con la media o con lo que confirma nuestra posición.

La resistencia no se trata de oponerse a la tecnología, sino de cambiar la forma en que la usamos. En lugar de pedirle a la IA una confirmación conveniente, como “explícame por qué esta medida política es positiva”, que a menudo genera respuestas predecibles, es más útil comunicarse de manera crítica. Por ejemplo, pedirle que analice supuestos implícitos, identifique contradicciones entre efectos sociales y valores defendidos, y formule objeciones o preguntas que nos obliguen a reconsiderar nuestra posición. Por tanto, la IA no reemplaza el juicio humano, sino que lo activa.

La soberanía de la individualidad

La estandarización algorítmica tiende a crear una uniformidad digital que evita lo auténtico en favor de lo predecible.

Si no recuperamos nuestra autonomía mental, corremos el riesgo de convertirnos en una versión simplificada de los usuarios que la tecnología espera que seamos. El desafío no es competir con la potencia informática de la máquina, sino utilizarla de una manera que libere nuestra reflexión crítica, permitiendo que la eficiencia tecnológica enriquezca la experiencia humana sin reemplazar nuestro propio pensamiento.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo