El debate público sobre la inteligencia artificial en la educación superior se ha centrado en gran medida en una preocupación familiar: las trampas. ¿Los estudiantes utilizarán chatbots para escribir ensayos? ¿Pueden decir los instructores? ¿Deberían las universidades prohibir la tecnología? ¿Aceptarlo?
Esta preocupación es comprensible. Pero centrarse tanto en las trampas pasa por alto la transformación más amplia que ya está en marcha, una que se extiende mucho más allá de la mala conducta de los estudiantes e incluso del aula.
Las universidades están adoptando la inteligencia artificial en muchas áreas de la vida institucional. Algunos usos son en gran medida invisibles, como los sistemas que ayudan a asignar recursos, señalar a los estudiantes “en riesgo”, optimizar la programación de cursos o automatizar las decisiones administrativas de rutina. Otros usos son más obvios. Los estudiantes usan herramientas de inteligencia artificial para resumir y estudiar, los instructores las usan para crear tareas y programas de estudios, y los investigadores las usan para escribir códigos, escanear literatura y comprimir horas de trabajo tedioso en minutos.
Los humanos pueden utilizar la inteligencia artificial para hacer trampa o saltarse tareas laborales. Pero los múltiples usos de la inteligencia artificial en la educación superior y los cambios que presagian plantean una pregunta mucho más profunda: a medida que las máquinas se vuelven más capaces de realizar el trabajo de investigación y aprendizaje, ¿qué sucede con la educación superior? ¿Para qué sirve la universidad?
Durante los últimos ocho años, hemos estudiado las implicaciones morales del compromiso generalizado con la inteligencia artificial como parte de un proyecto de investigación conjunto entre el Centro de Ética Aplicada de la UMass Boston y el Instituto de Ética y Nuevas Tecnologías. En un informe técnico reciente, sostenemos que a medida que los sistemas de IA se vuelven más autónomos, aumentan los riesgos éticos de la IA, al igual que sus posibles consecuencias.
A medida que estas tecnologías mejoran en la producción de conocimiento (diseño de clases, redacción de trabajos, propuesta de experimentos y resumen de textos difíciles) no sólo están haciendo que las universidades sean más productivas. Corren el riesgo de destruir el ecosistema de aprendizaje y tutoría sobre el que se basan y del que dependen estas instituciones.
IA no autónoma
Consideremos tres tipos de sistemas de IA y su impacto en la vida universitaria:
El software impulsado por IA ya se está utilizando en la educación superior para la revisión de admisiones, compras, asesoramiento académico y evaluación de riesgos institucionales. Se consideran sistemas “no autónomos” porque automatizan tareas, pero la persona está “al tanto” y utiliza estos sistemas como herramientas.
Estas tecnologías pueden representar un riesgo para la privacidad y seguridad de los estudiantes. También pueden ser parciales. Y a menudo carecen de suficiente transparencia para identificar las fuentes de estos problemas. ¿Quién tiene acceso a los datos de los estudiantes? ¿Cómo se generan las “puntuaciones de riesgo”? ¿Cómo evitamos que los sistemas reproduzcan desigualdades o traten a ciertos estudiantes como problemas que deben gestionarse?
Estas preguntas son serias, pero no son conceptualmente nuevas, al menos en el campo de la informática. Las universidades suelen tener oficinas de cumplimiento, juntas de revisión institucional y mecanismos de gobernanza diseñados para ayudar a abordar o mitigar estos riesgos, incluso si a veces no alcanzan estos objetivos.
IA híbrida
Los sistemas híbridos incluyen una variedad de herramientas, incluidos chatbots de tutoría asistidos por IA, herramientas de retroalimentación personalizada y soporte de escritura automatizada. A menudo dependen de tecnologías de inteligencia artificial generativa, especialmente modelos de lenguaje de gran tamaño. Si bien los usuarios humanos establecen objetivos generales, los pasos intermedios que sigue el sistema para alcanzarlos a menudo no se especifican.
Los sistemas híbridos dan forma cada vez más al trabajo académico cotidiano. Los estudiantes los utilizan como compañeros de escritura, tutores, compañeros de pensamiento y aclaraciones a pedido. Los profesores los utilizan para generar rúbricas, delinear conferencias y diseñar planes de estudio. Los investigadores los utilizan para resumir artículos, comentar borradores, diseñar experimentos y generar código.
Ahí es donde entra en juego el discurso sobre las “trampas”. A medida que los estudiantes y profesores dependen cada vez más de la tecnología para obtener ayuda, es razonable preguntarse qué tipos de aprendizaje podrían perderse en el camino. Pero los sistemas híbridos también plantean cuestiones éticas más complejas.
Si los estudiantes dependen de la IA generativa para producir trabajos para sus clases, y la IA también genera retroalimentación, ¿cómo afecta esto a la relación estudiante-profesor? Eric Lee para The Washington Post vía Getty Images
Uno tiene que ver con la transparencia. Los chatbots de IA ofrecen interfaces de lenguaje natural que hacen difícil saber cuándo estás interactuando con un humano y cuándo estás interactuando con un agente automatizado. Puede resultar alienante y perturbador para quienes interactúan con ellos. Un estudiante que revisa el material de la prueba necesita saber si está hablando con su asistente o con un robot. Un estudiante que lee comentarios sobre un trabajo final necesita saber si fue escrito por su instructor. Cualquier cosa que no sea una transparencia total en tales casos será alienante para todos los involucrados y cambiará el enfoque de las interacciones académicas del aprendizaje a los medios o la tecnología del aprendizaje. Investigadores de la Universidad de Pittsburgh han demostrado que esta dinámica hace que los estudiantes se sientan inseguros, ansiosos y desconfiados. Estos son resultados problemáticos.
Otra cuestión ética se relaciona con la responsabilidad y el crédito intelectual. Si el instructor usa IA para crear una tarea y el estudiante usa IA para crear respuestas, ¿quién realiza la evaluación y qué se evalúa exactamente? Si la retroalimentación es parcialmente generada por máquinas, ¿quién es responsable cuando engaña, desalienta o incorpora suposiciones ocultas? Y cuando la IA haga una contribución significativa a la síntesis o redacción de investigaciones, las universidades necesitarán normas más claras en torno a la autoría y la rendición de cuentas, no solo para los estudiantes, sino también para los profesores.
Finalmente, está la cuestión crítica de la carga cognitiva. La IA puede reducir el trabajo pesado, y eso no es malo. Pero también puede distanciar a los usuarios de las partes del aprendizaje que desarrollan competencias, como generar ideas, lidiar con la confusión, revisar un borrador torpe y aprender a detectar los propios errores.
Agentes autónomos
Los mayores cambios pueden venir con sistemas que se parecen menos a asistentes y más a agentes. Si bien las tecnologías verdaderamente autónomas siguen siendo aspiracionales, el sueño de un investigador “en una caja” (un sistema de IA agente que pueda realizar estudios por sí solo) se está volviendo cada vez más realista.

La creciente sofisticación y autonomía de los sistemas tecnológicos significa que la investigación científica puede volverse cada vez más automatizada, dejando potencialmente menos oportunidades para que los seres humanos adquieran habilidades mediante la práctica de métodos de investigación. NurPhoto/Getty Images
Se prevé que las herramientas de los agentes “liberarán tiempo” para trabajos que se centren en capacidades más humanas, como la empatía y la resolución de problemas. En la enseñanza, esto puede significar que los profesores aún pueden enseñar de manera titular, pero gran parte del trabajo diario de la enseñanza se puede subcontratar a sistemas optimizados para lograr eficiencia y escala. De manera similar, en la investigación, la trayectoria apunta hacia sistemas que pueden automatizar cada vez más el ciclo de investigación. En algunos ámbitos, ya parecen laboratorios de robots que funcionan las 24 horas del día, automatizando gran parte de la experimentación e incluso eligiendo nuevas pruebas basadas en resultados anteriores.
A primera vista, esto puede parecer un bienvenido impulso a la productividad. Pero las universidades no son fábricas de información; son sistemas de práctica. Se basan en una variedad de estudiantes de posgrado y académicos que inician su carrera y que aprenden a enseñar e investigar participando en el mismo trabajo. Si los agentes autónomos absorben más responsabilidades “rutinarias” que históricamente han servido como introducción a la vida académica, la universidad puede continuar produciendo cursos y publicaciones mientras reduce silenciosamente las estructuras de oportunidades que sustentan la experiencia a lo largo del tiempo.
La misma dinámica se aplica a los estudiantes, pero en un registro diferente. Cuando los sistemas de inteligencia artificial pueden proporcionar explicaciones, planos, soluciones y planes de aprendizaje a pedido, resulta tentador descargar las partes más desafiantes del aprendizaje. Para la industria que impulsa la IA en las universidades, puede parecer que este tipo de trabajo es “ineficiente” y que será mejor para los estudiantes dejar que la máquina se encargue de ello. Pero la naturaleza misma de esa lucha genera una comprensión duradera. La psicología cognitiva ha demostrado que los estudiantes crecen intelectualmente a través del trabajo de elaborar, revisar, fallar, volver a intentarlo, luchar contra la confusión y revisar argumentos débiles. Este es el trabajo de aprender a aprender.
En conjunto, estos avances sugieren que el mayor riesgo que plantea la automatización en la educación superior no es simplemente la sustitución de ciertas tareas por máquinas, sino la erosión del ecosistema más amplio de práctica que durante mucho tiempo ha sustentado la enseñanza, la investigación y el aprendizaje.
Un punto de inflexión incómodo
Entonces, ¿para qué sirven las universidades en un mundo donde el trabajo del conocimiento está cada vez más automatizado?
Una posible respuesta es tratar a la universidad principalmente como un motor para la producción de credenciales y conocimientos. Surge una pregunta esencial: ¿los estudiantes se gradúan con diplomas? ¿Se están realizando documentos y divulgaciones? Si los sistemas autónomos pueden ofrecer esos resultados de manera más eficiente, entonces la institución tiene todas las razones para adoptarlos.
Pero la segunda respuesta trata a la universidad como poco más que una máquina de producción, reconociendo que el valor de la educación superior reside en parte en el ecosistema mismo. Este modelo otorga valor intrínseco a una variedad de oportunidades a través de las cuales los principiantes se convierten en expertos, estructuras de tutoría a través de las cuales se cultiva el juicio y la responsabilidad, y un diseño educativo que fomenta la lucha productiva en lugar de optimizarla. Aquí no se trata sólo de si se producen conocimientos y títulos, sino también de cómo se producen y qué tipo de personas, capacidades y comunidades se forman en el proceso. En esta versión, la universidad debería servir nada menos que como un ecosistema que forme de manera confiable la experiencia y el juicio humanos.
En un mundo donde el trabajo del conocimiento está cada vez más automatizado, creemos que las universidades deben preguntarse qué le debe la educación superior a sus estudiantes, a sus académicos que inician su carrera y a la sociedad a la que sirve. Las respuestas determinarán no sólo cómo se adopta la IA, sino también en qué se convertirá la universidad moderna.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

