La última generación de modelos de IA es más nítida y fluida y produce texto pulido con menos errores y alucinaciones. Como profesor de filosofía, tengo un temor creciente: cuando un ensayo pulido ya no demuestra que el estudiante ha pensado, la calificación superior se vuelve vacía, y también lo hace el título.
El problema no termina en las aulas. En campos como el derecho, la medicina y el periodismo, la confianza depende de saber que el criterio humano guió el trabajo. El paciente, por ejemplo, espera que la prescripción del médico refleje la opinión y la formación del experto.
Los productos de inteligencia artificial ahora se pueden utilizar para respaldar las decisiones humanas. Pero incluso cuando el papel de la inteligencia artificial en la realización de ese tipo de trabajo es pequeño, no se puede estar seguro de si un profesional inició el proceso o simplemente escribió algunas instrucciones para realizar el trabajo. Lo que falta en esta situación es la rendición de cuentas: la sensación de que las instituciones y los individuos puedan rendir cuentas por lo que certifican. Y esto llega en un momento en que la confianza pública en las instituciones civiles ya está cayendo.
Veo la educación como un campo de entrenamiento para un nuevo desafío: aprender a trabajar con IA preservando al mismo tiempo la integridad y la visibilidad del pensamiento humano. Si se soluciona el problema aquí, podría surgir un modelo para otros campos donde la confianza depende de saber que las decisiones aún provienen de las personas. En mis clases, probamos el protocolo de creación para garantizar que la escritura de los estudiantes permanezca conectada a su pensamiento, incluso con la IA en el circuito.
Cuando el aprendizaje sale mal
El intercambio básico entre profesor y alumno es tenso. Un estudio reciente del MIT encontró que los estudiantes que utilizaron modelos de lenguaje grandes para ayudar con los ensayos se sintieron menos dueños de su trabajo y obtuvieron peores resultados en medidas clave de escritura.
Los estudiantes todavía quieren aprender, pero muchos se sienten derrotados. Es posible que se pregunten: “¿Por qué pensé en ello cuando la IA puede decírmelo?”. A los profesores les preocupa que sus comentarios ya no lleguen. Como dijo una estudiante de la Universidad de Columbia a The New Yorker después de enviar su ensayo asistido por IA: “Si no les gusta, no soy yo quien lo escribió, ¿sabes?”.
Las universidades están luchando. Algunos instructores intentan hacer las tareas “a prueba de IA”, pasando a reflexiones personales o exigiendo a los estudiantes que incluyan sus propias instrucciones y procesos. Durante los últimos dos años, probé estas versiones en mis clases, e incluso pedí a los estudiantes que inventaran nuevos formatos. Pero la IA puede imitar casi cualquier tarea o estilo.
Las tareas de clase en papel pueden evitar la dependencia de los estudiantes de los chatbots de IA. Pero los exámenes del ‘libro azul’ enfatizan el desempeño bajo presión y pueden no ser buenos para escenarios donde los estudiantes necesitan desarrollar su pensamiento original. Robert Gauthier/Los Angeles Times vía Getty Images
Es comprensible que ahora otros pidan un retorno a lo que llaman “estándares medievales”: pruebas en clase con “libros azules” y exámenes orales. Sin embargo, generalmente premian la velocidad bajo presión más que la reflexión. Y si los estudiantes utilizan la IA fuera de clase para sus tareas, los profesores simplemente reducirán el nivel de calidad, tal como lo hicieron cuando los teléfonos inteligentes y las redes sociales comenzaron a interrumpir la lectura y la atención sostenidas.
Muchas instituciones están recurriendo a prohibiciones estrictas o entregando el problema a empresas de tecnología educativa, cuyos detectores registran cada pulsación de tecla y reproducen planos como películas. Los maestros revisan los cronogramas forenses; Los estudiantes se sienten monitoreados. Demasiado útil para prohibirla, la IA se esconde como contrabando.
El desafío no es que la IA proporcione argumentos sólidos; también lo hacen los libros y los compañeros. La diferencia es que la IA impregna el entorno y susurra constantemente sugerencias al oído del estudiante. Es crucial que el estudiante simplemente los repita o los utilice en su propio razonamiento, pero los profesores no pueden juzgar esto a posteriori. Un artículo sólido puede ocultar una adicción, mientras que uno débil puede reflejar una lucha real.
Mientras tanto, otras características del razonamiento de los estudiantes (frases incómodas que mejoran a medida que se trabaja, calidad de las citas, fluidez general en la escritura) también quedan ocultas por la IA.
Restablecer el vínculo entre proceso y producto
Si bien muchos se evitarían gustosamente el esfuerzo de pensar por sí mismos, esto es lo que hace que el aprendizaje sea duradero y prepara a los estudiantes para convertirse en profesionales y líderes responsables. Incluso si fuera deseable entregar el control a la IA, no se la puede responsabilizar y sus creadores no quieren ese papel. La única opción, a mi modo de ver, es proteger la conexión entre el razonamiento del estudiante y el trabajo que lo construye.
Imagine una plataforma de aula donde los profesores establecen las reglas para cada tarea y eligen cómo se puede utilizar la inteligencia artificial. Un ensayo de filosofía se puede ejecutar en un modo sin IA: los estudiantes escriben en una ventana que desactiva copiar y pegar y las llamadas de IA externas, pero aún les permite guardar borradores. Un proyecto de codificación puede permitir la asistencia de IA, pero haga una pausa antes de enviarlo para hacerle preguntas breves al estudiante sobre cómo funciona su código. Cuando se envía un trabajo a un profesor, el sistema emite un recibo seguro (una etiqueta digital, como un sobre de examen sellado) que confirma que se produjo en las condiciones especificadas.
Esto no es una detección: no hay ningún algoritmo de escaneo en busca de marcadores de IA. Y no es vigilancia: no hay registro de pulsaciones de teclas ni espionaje. Las condiciones de asignación de IA están integradas en el proceso de envío. El trabajo que no cumple con esos requisitos simplemente no se realizará, como cuando la plataforma rechaza un tipo de archivo no compatible.
En mi laboratorio de la Universidad de Temple, estamos poniendo a prueba este enfoque utilizando un protocolo patentado que desarrollé. En el modo de verificación de autoría principal, el asistente de IA hace preguntas breves y conversacionales que hacen que los estudiantes vuelvan a pensar: “¿Puedes reafirmar tu punto principal con mayor claridad?” o “¿Existe un ejemplo mejor que demuestre la misma idea?” Sus respuestas breves y cambios instantáneos permiten que el sistema mida qué tan bien se alinean su razonamiento y el borrador final.
Las instrucciones se adaptan en tiempo real a la escritura de cada alumno, con la intención de que el coste de hacer trampa sea mayor que el esfuerzo de pensar. El objetivo no es calificar o reemplazar a los profesores, sino reconectar el trabajo que los estudiantes están realizando con el razonamiento que los llevó a ello. Para los profesores, esto les devuelve la confianza de que sus comentarios se basan en el razonamiento real de los estudiantes. Para los estudiantes, desarrolla conciencia metacognitiva, ayudándoles a ver cuándo están pensando realmente y cuándo simplemente se están desahogando.
Creo que los profesores e investigadores deberían poder diseñar sus propios controles de autoría, cada uno emitiendo una etiqueta segura que valide el trabajo que ha pasado por el proceso elegido, una etiqueta en la que las instituciones puedan confiar y adoptar.
Cómo se comunican los humanos y las máquinas inteligentes
Se están llevando a cabo esfuerzos similares fuera del ámbito educativo. En el ámbito editorial, los esfuerzos de certificación ya están experimentando con sellos “humanos”. Sin embargo, sin una verificación confiable, esas etiquetas se convierten en afirmaciones de marketing. Lo que hay que comprobar no son las pulsaciones de teclas, sino la forma en que las personas realizan sus actividades.
Eso traslada la cuestión a la autoría cognitiva: no si se utiliza la IA ni en qué medida, sino cómo su integración afecta la propiedad y la reflexión. Como señaló recientemente un médico, aprender a aplicar la IA al campo médico requerirá una ciencia propia. Lo mismo ocurre con cualquier campo que dependa del juicio humano.
Sin darle a la profesión control sobre cómo se utiliza la IA y sin garantizar un lugar para el juicio humano en el trabajo asistido por IA, la tecnología de IA corre el riesgo de erosionar la confianza de la que dependen las profesiones y las instituciones cívicas. La IA no es sólo una herramienta; es el entorno cognitivo el que remodela nuestra forma de pensar. Para habitar este entorno en nuestros propios términos, debemos construir sistemas abiertos que mantengan el razonamiento humano en el centro.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

