ChatGPT está en las aulas. ¿Cómo deberían los profesores evaluar ahora el aprendizaje de los estudiantes?

REDACCION USA TODAY ESPAÑOL
10 Lectura mínima

La inteligencia artificial generativa (GenAI) es ahora una realidad en la educación superior, donde estudiantes y profesores integran chatbots en la enseñanza, el aprendizaje y la evaluación. Pero esto no es sólo un cambio técnico; está remodelando la forma en que estudiantes y profesores aprenden y evalúan el conocimiento.

Nuestro reciente estudio cualitativo de 28 educadores de universidades y facultades canadienses, desde bibliotecarios hasta profesores de ingeniería, sugiere que hemos entrado en un momento decisivo en la educación.

Debemos abordar la pregunta: ¿Qué se debe evaluar exactamente cuando un algoritmo puede aumentar o simular la cognición humana?

Investigación sobre inteligencia artificial e integridad académica

En nuestra revisión de 15 años de investigación sobre cómo la IA afecta las trampas en la educación, descubrimos que la IA es un arma de doble filo para las escuelas.

Por otro lado, los estudios que revisamos mostraron que la IA puede ser un asistente legítimo que puede hacer que el aprendizaje sea más inclusivo. Por ejemplo, la inteligencia artificial puede ayudar a los estudiantes con discapacidades o ayudar a quienes aprenden un idioma adicional.

Dado que es casi imposible bloquear todas las herramientas de inteligencia artificial, las escuelas no deberían centrarse únicamente en detectar a los tramposos. En cambio, las escuelas y las instituciones de educación superior pueden actualizar sus políticas y ofrecer una mejor formación tanto a estudiantes como a profesores. Esto ayuda a todos a aprender cómo usar la tecnología de manera responsable mientras mantienen un alto nivel de integridad académica.

Los participantes en nuestro estudio se posicionaron como administradores del aprendizaje con integridad. (Imágenes falsas/Unsplash)

Los participantes de nuestro estudio no se posicionaron como hacedores, sino como gestores del aprendizaje con integridad.

Su atención se centró en distinguir entre ayudas que apoyan el aprendizaje y ayudas que lo reemplazan. Identificaron tres áreas de habilidades en las que actualmente caen los límites de la evaluación: indicaciones, pensamiento crítico y escritura.

Estímulo: una habilidad legítima y valiosa

Los participantes consideraron ampliamente que las indicaciones (la capacidad de formular instrucciones claras y decididas a un chatbot) eran una habilidad que podían evaluar. Las indicaciones efectivas requieren que los estudiantes dividan las tareas, comprendan conceptos y se comuniquen con precisión.

Varios observaron que las instrucciones vagas a menudo producían malos resultados, lo que obligaba a los estudiantes a pensar en lo que realmente estaban buscando.

Las indicaciones se consideraban éticas sólo cuando se utilizaban de forma transparente, basándose en los propios conocimientos previos. Sin estas condiciones, los educadores temían que el estímulo pudiera convertirse en una dependencia excesiva o un uso acrítico de la IA.

Pensamiento crítico

Los educadores vieron un gran potencial para que la IA apoyara la evaluación del pensamiento crítico. Debido a que los chatbots pueden generar texto que suena plausible pero que puede contener errores, omisiones o mentiras, los estudiantes deben evaluar la precisión, la coherencia y la credibilidad. Los participantes informaron que utilizaron resúmenes o argumentos generados por IA como estímulos para las críticas y pidieron a los estudiantes que identificaran debilidades o afirmaciones engañosas.

Estas actividades son consistentes con la necesidad más amplia de preparar a los estudiantes para trabajar en un futuro donde evaluar información algorítmica será una tarea rutinaria. Varios educadores han argumentado que no sería ético no enseñar a los estudiantes cómo examinar el contenido generado por IA.

Escritura: donde los límites se estrechan

La escritura fue el ámbito más controvertido. Los profesores hicieron una clara distinción entre pensamiento, edición y composición:

• La lluvia de ideas con IA era aceptable cuando se utilizaba como punto de partida, siempre y cuando los estudiantes expresaran sus ideas y no sustituyeran su propio pensamiento por sugerencias de la IA.

• La edición por IA (por ejemplo, corrección gramatical) se consideró aceptable solo después de que los estudiantes hubieran producido el texto original y pudieran juzgar si las revisiones generadas por la IA eran apropiadas. Mientras que algunos ven la IA como un apoyo legítimo a la diversidad lingüística, además de ayudar a nivelar el campo de juego para las personas con discapacidades o aquellos que hablan inglés como idioma adicional, otros temen un futuro de estandarización del lenguaje en el que un algoritmo suavice la voz única y auténtica de un estudiante.

• Se niega implícitamente que los chatbots hayan elaborado argumentos o prosa. Los participantes trataron la etapa generativa de la escritura como un proceso cognitivo exclusivamente humano que deben realizar los estudiantes, no las máquinas.

Los educadores también advirtieron que una gran dependencia de la inteligencia artificial podría llevar a los estudiantes a evitar la “lucha productiva” inherente a la escritura, una lucha que es crucial para desarrollar el pensamiento original.

A lire aussi: ¿Cuáles son los propósitos clave de la escritura humana? La forma en que llamamos texto generado por IA confunde las cosas

Los participantes de nuestra investigación reconocieron que en un futuro cognitivo híbrido, las habilidades relacionadas con la IA, junto con el pensamiento crítico, son habilidades esenciales para que los estudiantes estén preparados para el mundo laboral después de graduarse.

Los jóvenes en una multitud caminan afuera.

Los participantes del estudio reconocieron que los estudiantes necesitan habilidades relacionadas con el pensamiento crítico y el uso de la inteligencia artificial. (Brelin Bashrum/Unsplash) Viviendo en una era post-plagio

La idea de coautoría con GenAI nos lleva a una era posplagio en la que la IA se integra en la enseñanza, el aprendizaje y la comunicación de una manera que nos desafía a cuestionar nuestras suposiciones sobre la autoría y la originalidad.

Esto no quiere decir que a los educadores ya no les importe el plagio o la integridad académica. La honestidad siempre será importante. En cambio, en el contexto del posplagio, creemos que la coautoría y la cocreación de humanos e inteligencia artificial no equivale automáticamente a plagio.

Hoy en día, la IA está revolucionando la educación y, aunque todavía no tenemos todas las respuestas, es seguro que la IA llegó para quedarse. Enseñar a los estudiantes a cocrear con inteligencia artificial es parte del aprendizaje en un mundo posplagio.

Diseño para un futuro socialmente justo

Un juicio válido en la era de la inteligencia artificial requiere una delimitación clara de qué procesos cognitivos deben seguir siendo humanos y cuáles pueden liberarse cognitivamente de forma legítima. Para garantizar que la educación superior siga siendo un espacio para la toma de decisiones éticas, particularmente en lo que respecta a la enseñanza, el aprendizaje y la evaluación, proponemos cinco principios de diseño, basados ​​en nuestra investigación:

1. Expectativas explícitas: el profesor es responsable de aclarar si GenAI se puede utilizar en una tarea particular y cómo. Los estudiantes necesitan saber exactamente cuándo y cómo la IA colabora en su trabajo. La ambigüedad puede conducir a una mala conducta involuntaria, así como a una ruptura en la relación entre estudiantes y maestros.

2. Proceso sobre producto: Al evaluar borradores, notas y reflexiones, los educadores pueden evaluar el proceso de aprendizaje, no solo el resultado o el producto.

3. Diseñar tareas de evaluación que requieran juicio humano: Las tareas que requieren evaluación, síntesis y crítica de alto nivel de contextos localizados son áreas donde la agencia humana sigue siendo importante.

4. Desarrollar el razonamiento evaluativo: los educadores deben enseñar a los estudiantes a ser consumidores críticos de GenAI, capaces de identificar sus limitaciones y sesgos.

5. Preservar la voz de los estudiantes: Las evaluaciones deben centrarse en cómo los estudiantes saben lo que saben, no en lo que saben.

Preparar a los estudiantes para un futuro cognitivo híbrido

Los profesores de este estudio buscaban formas éticas y prácticas de integrar GenAI en la evaluación. Argumentaron que los estudiantes deben comprender tanto las capacidades como las limitaciones de GenAI, en particular su tendencia a generar errores, simplificaciones o resúmenes engañosos.

En este sentido, el posplagio no se trata de una crisis, sino de un cuestionamiento de lo que significa aprender y demostrar conocimientos en un mundo donde la cognición humana interactúa rutinariamente con los sistemas digitales.

Las universidades y facultades se enfrentan ahora a una elección. Pueden tratar la IA como una amenaza que debe gestionarse o pueden tratarla como un catalizador para fortalecer la evaluación, la integridad y el aprendizaje. Los educadores de nuestro estudio favorecen lo último.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo