Pragmáticos de la inteligencia artificial: cómo los profesores de idiomas gestionan la IA matizada

REDACCION USA TODAY ESPAÑOL
11 Lectura mínima

Una narrativa omnipresente se ha arraigado en la educación: la IA generativa (genAI) es una fuerza imparable, y los educadores deben adaptarse o quedarse atrás.

Las empresas de tecnología están vendiendo herramientas de inteligencia artificial como los mejores asistentes en el aula, mientras que los principales medios de comunicación advierten que la redacción de ensayos está muerta.

Los entusiastas de la tecnología y los formuladores de políticas han etiquetado o enmarcado durante mucho tiempo a los docentes como “resilientes” y “aversos al riesgo”. El debate sobre la tecnología en las aulas ha reforzado la noción de que los profesores adoptan o rechazan la tecnología.

Sin embargo, la investigación con educadores muestra que el marco binario entre los innovadores de la IA y los luditas oscurece lo que realmente sucede en las aulas.

Para comprender mejor esto, recurrí a mi institución, el Instituto de Idiomas Oficiales y Bilingüismo (OLBI) de la Universidad de Ottawa. Consulté a instructores de inglés como segundo idioma (ESL) y francés como segundo idioma (FSL) para examinar sus actitudes hacia las herramientas asistidas por IA y su uso actual. Lo hice realizando una encuesta institucional ascendente.

Respondieron veinticuatro de 60 miembros del personal elegibles, lo que arrojó una tasa de respuesta del 40 por ciento. En el contexto de la investigación institucional, esta es una respuesta fuerte que representa una muestra representativa de nuestro departamento.

Como mi objetivo era comprender los matices de la toma de decisiones por parte de los educadores, esta muestra cualitativa ofrece una visión profunda de la realidad docente de primera línea. Los hallazgos indican que una mayoría reflexiva de instructores navegan por un terreno pedagógico complejo con matices significativos.

El mito del maestro resistente

Como ha argumentado el historiador de la educación Larry Cuban, los profesores no son inherentemente resistentes a la tecnología; son resistentes a herramientas que no resuelven sus problemas. Los datos de mi estudio respaldan esta distinción.

La investigación sobre la adquisición de una segunda lengua sugiere que los profesores de idiomas experimentados, que quieren ver el progreso de sus estudiantes, buscan la normalización de las nuevas tecnologías, una fase en la que la herramienta se vuelve invisible y el aprendizaje ocupa un lugar central.

Los profesores de idiomas quieren que el aprendizaje sea el centro de atención. (Imágenes falsas/Unsplash)

Mi encuesta confirma esta orientación. Cuando se les pidió que identificaran su postura sobre la integración de la IA, la mayoría del personal de OLBI no seleccionó “escéptico”.

La mayoría de los encuestados se caracterizan mejor como “pragmáticos”: educadores que reconocen el potencial de las herramientas genAI, pero niegan su adopción total en espera de evidencia pedagógica creíble.

Sin embargo, una minoría significativa expresó preocupaciones sustantivas y filosóficamente fundamentadas. Un instructor de FSL describió genAI como “une menace a l’autonomie de la pensee” (“una amenaza a la autonomía del pensamiento”).

Se trata de una defensa reflexiva de la capacidad de pensamiento crítico que debería fomentar la educación superior.

Y lea también: ‘El profesor lento’ podría devolver la creatividad a nuestras universidades

El problema de la ‘inteligencia artificial oculta’

Mi encuesta también señala una sorprendente inconsistencia en la forma en que los profesores entienden la IA. Varios encuestados afirmaron que “nunca” utilizan la inteligencia artificial generativa. Sin embargo, en preguntas posteriores, admitieron el uso regular de herramientas como Grammarly para asistencia en escritura o DeepL para traducción.

Grammarly introdujo la IA generativa a su tecnología de IA anterior que integra el aprendizaje automático y el procesamiento del lenguaje natural, y la función genAI se puede desactivar. DeepL también desarrolló un modelo genAI.

Sin embargo, el punto más importante es que los instructores parecieron hacer una distinción entre la IA que percibían como útil para el trabajo existente y la IA que percibían como generadora de texto nuevo. Esa diferencia refleja diferentes interpretaciones de autoría, agencia y uso aceptable.

Lo que los datos revelan, entonces, es una taxonomía intuitiva: los instructores están en su mayoría satisfechos con las herramientas que mejoran o corrigen su trabajo actual (IA de asistencia) y son significativamente más cautelosos con las herramientas que producen contenido en su nombre.

Esta diferencia se refleja en mi propio proceso con este artículo. Como escritor francófono en inglés, utilicé Claude de Anthropique para aclarar frases a nivel de oración en un borrador que ya había escrito.

La distinción entre mejorar el trabajo existente y producir contenido refleja discusiones más amplias en otros lugares sobre el aprendizaje y la integridad académica.

Leer más: ChatGPT está en las aulas. ¿Cómo deberían los profesores evaluar ahora el aprendizaje de los estudiantes?

Escudo de eficiencia

El hallazgo más significativo de la encuesta se relaciona con cómo los instructores utilizan genAI principalmente como una herramienta de eficiencia administrativa, usándola para generar planes de lecciones, elaborar comunicaciones de cursos y crear textos breves para uso en el aula. Estas tareas consumen un tiempo considerable, pero no median directamente en el aprendizaje de los estudiantes.

Un instructor de ESL compartió su entusiasmo al respecto:

“Las posibilidades para la planificación de lecciones e ideas de actividades son infinitas”.

Sin embargo, los mismos profesores que han adoptado la IA para su propia productividad han expresado una marcada renuencia a introducir estas herramientas en el aprendizaje de los estudiantes.

La persona detrás del teclado.

Algunos instructores están adoptando GenAI para ayudar a crear planes de lecciones. (Julio López/Unsplash)

El razonamiento se basa en la ciencia cognitiva. La adquisición del lenguaje depende de lo que los psicólogos Robert Bjork y Elizabeth Bjork llaman dificultad deseable: un procesamiento cognitivo esforzado que consolida nuevos conocimientos lingüísticos en la memoria a largo plazo.

Cuando un alumno cambia la decisión gramatical a una función de autocompletado, o delega la construcción de argumentos a un modelo de lenguaje, pasa por alto el compromiso neuronal que hace que el aprendizaje sea permanente. Este fenómeno, conocido como sobrecarga cognitiva, puede producir un producto escrito pulido y dejar las competencias básicas sin desarrollar.

Un encuestado expresó esta preocupación:

“Si (los estudiantes) se salen con la suya, nunca aprenderán a escribir”.

Tales puntos de vista son consistentes con las Directrices de 2023 de la UNESCO sobre IA generativa en la educación y la investigación, que advierten que el ritmo de adopción de la IA genética en entornos educativos no debe superar nuestra comprensión colectiva de sus implicaciones cognitivas y éticas.

De hecho, nuestros instructores aplican un principio de precaución instintivo, que está bien respaldado por investigaciones empíricas.

A lire aussi: ¿Cuáles son los propósitos clave de la escritura humana? La forma en que llamamos texto generado por IA confunde las cosas

La política debe seguir a la pedagogía.

La consulta de OLBI ilustra por qué no se puede imponer desde arriba una política educativa significativa sobre IA. Si las universidades emiten mandatos amplios para adoptar la innovación sin consultar a quienes entienden la arquitectura cognitiva del aprendizaje, corren el riesgo de producir políticas administrativamente ordenadas pero prácticamente incoherentes.

Por el contrario, las prohibiciones generales ignoran la realidad de que los estudiantes se graduarán en un mercado laboral saturado con herramientas de inteligencia artificial y deberán desarrollar alfabetizaciones críticas para interactuar con ellas de manera responsable.

El camino trazado por nuestra mayoría “pragmática” es el camino de la alfabetización crítica en IA. En concreto, esto incluye tres obligaciones institucionales:

Diferenciar entre funciones de IA: las instituciones deben enseñar a los estudiantes a diferenciar las herramientas de IA por su función, no por su tecnología subyacente. Esto implica considerar herramientas que actúan con una capacidad de apoyo (corrigiendo, refinando o traduciendo el trabajo que el estudiante ya ha producido) y una capacidad generativa al crear contenido en nombre del usuario.

Esto dice que ambas categorías de IA “asistencial” y “generativa” requieren examen. Es importante señalar que algunos organismos educativos o de accesibilidad están discutiendo el uso de la inteligencia artificial generativa como tecnología de asistencia, especialmente para personas con discapacidad.

Proteger el proceso de aprendizaje: El diseño de la evaluación debe valorar el proceso de escritura y argumentación (redacción, revisión, pensamiento) en lugar de privilegiar sólo el producto final, que un modelo de lenguaje puede simular fácilmente.

Reposicionar al instructor: Como ha señalado la OCDE, el papel del educador está pasando de ser un transmisor de conocimientos a un evaluador crítico y arquitecto del aprendizaje. Las herramientas de inteligencia artificial pueden respaldar esta transición, pero solo si los instructores contratan la agencia para definir los términos del compromiso.

La pregunta que enfrentan las universidades es si las instituciones confiarán en los docentes que comprenden las necesidades cognitivas de sus estudiantes para trazar las líneas que importan.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo