Cuando se trata de desarrollar políticas de IA en K-12, las escuelas están en gran medida solas

REDACCION USA TODAY ESPAÑOL
11 Lectura mínima

La tecnología de IA generativa está remodelando rápidamente la educación de maneras sin precedentes. Con sus posibles beneficios y riesgos, las escuelas K-12 están intentando activamente adaptar la enseñanza y el aprendizaje.

Pero mientras las escuelas se esfuerzan por entrar en la era de la inteligencia artificial generativa, surge un desafío: las escuelas operan en un vacío político. Si bien varios estados ofrecen directrices sobre IA, sólo unos pocos exigen que las escuelas locales formulen políticas específicas, incluso cuando los profesores, estudiantes y líderes escolares siguen utilizando la IA generativa de innumerables formas nuevas. Como señaló un formulador de políticas en la encuesta: “Están la política y lo que realmente sucede en las aulas; son dos cosas muy diferentes”.

Como parte de la investigación de mi laboratorio sobre IA y políticas educativas, realicé una encuesta a finales de 2025 con miembros de la Asociación Nacional de Juntas Estatales de Educación, la única organización sin fines de lucro dedicada exclusivamente a ayudar a las juntas estatales a promover la equidad y la excelencia en la educación pública. La encuesta de los miembros de la asociación refleja cómo la política educativa generalmente se forma a través de interacciones dinámicas a nivel nacional, estatal y local, en lugar de ser dictada por una sola fuente.

Pero incluso en ausencia de reglas y barreras firmes sobre cómo se puede utilizar la inteligencia artificial en las escuelas, los responsables de las políticas educativas han identificado una serie de cuestiones éticas planteadas por la proliferación de la tecnología, incluida la seguridad de los estudiantes, la privacidad de los datos y los impactos negativos en el aprendizaje de los estudiantes.

También expresaron su preocupación por la influencia de la industria y que luego cobrarían a las escuelas por servicios tecnológicos por grandes herramientas basadas en modelos de lenguaje que actualmente son gratuitos. Otros informan que los administradores de su estado están muy preocupados por el deepfaking: “¿Qué sucede cuando un estudiante falsifica mi voto y los envía a cancelar la escuela o hace una amenaza de bomba?”

Al mismo tiempo, los formuladores de políticas dicen que enseñar a los estudiantes a utilizar la tecnología de inteligencia artificial en su beneficio sigue siendo una prioridad.

Las acciones locales dominan

Aunque los chatbots han estado ampliamente disponibles durante más de tres años, la encuesta encontró que los estados se encuentran en las primeras etapas de abordar la IA generativa, y la mayoría aún no ha implementado políticas oficiales. Si bien muchos estados proporcionan directrices o conjuntos de herramientas, o comienzan a redactar políticas a nivel estatal, las decisiones locales dominan el panorama, y ​​cada distrito escolar es el principal responsable de dar forma a sus propios planes.

Cuando se les preguntó si su estado había implementado alguna política de IA generativa, los encuestados dijeron que había un alto grado de influencia local, independientemente de si el estado emitía directrices o no. “Somos un estado de ‘control local’, por lo que algunos distritos escolares han prohibido (la IA generativa)”, escribió un encuestado. “Nuestro Departamento de Educación (estatal) tiene un conjunto de herramientas de inteligencia artificial, pero todas las políticas son locales”, escribió otro. Uno dijo que su estado tiene un “requisito básico de que los distritos adopten una política local de IA”.

Al igual que otras políticas educativas, la adopción generativa de la IA se produce dentro de las estructuras estatales de gobernanza educativa existentes, con autoridad y responsabilidad equilibradas entre los niveles estatal y local. Al igual que con oleadas anteriores de tecnología en las escuelas K-12, la toma de decisiones local juega un papel clave.

Sin embargo, existe una falta general de evidencia sobre cómo la IA afectará a estudiantes y profesores, algo que tardará años en aclararse. Ese retraso se suma a los desafíos en la formulación de políticas.

Estados como faro

Sin embargo, las políticas públicas pueden proporcionar una orientación vital al priorizar la ética, la justicia y la seguridad y al responder a las necesidades cambiantes. Una política gubernamental coherente también puede abordar cuestiones clave, como el uso aceptable de la inteligencia artificial por parte de los estudiantes, y garantizar estándares de práctica más consistentes. Sin esa orientación, los condados se ven abandonados a su suerte para identificar usos apropiados y eficaces y construir barandillas.

Tal como están las cosas, el uso de la IA y el desarrollo de políticas son desiguales, dependiendo de cuántos recursos tengan las escuelas. Los datos de un panel de docentes dirigido por RAND encontraron que los docentes y directores de escuelas con alta pobreza tenían aproximadamente la mitad de probabilidades de recibir orientación de IA. Las escuelas más pobres también tienen menos probabilidades de utilizar herramientas de inteligencia artificial.

Cuando se les preguntó sobre las políticas generativas básicas para la IA en la educación, los formuladores de políticas se centraron en la privacidad, la seguridad y la equidad. Un encuestado, por ejemplo, dijo que los distritos escolares deberían tener el mismo acceso a financiación y formación, incluso para los administradores.

Y en lugar de imponer la tecnología a las escuelas y las familias, muchos abogaron por basar el debate en los valores humanos y una amplia participación. Como señaló un formulador de políticas: “¿Cuál es el papel de la familia en todo esto? Esto es algo que constantemente falta en la conversación y algo que necesita ser destacado. Como sabemos, los padres son los primeros maestros de nuestros hijos”.

Introducción de nueva tecnología.

Según una encuesta de Gallup del 24 de febrero de 2025, el 60% de los profesores informaron haber utilizado alguna forma de inteligencia artificial para su trabajo de diversas formas. Nuestra encuesta también encontró que existe un “uso oculto de la IA”, como lo expresó un formulador de políticas, donde los empleados implementan IA generativa sin la aprobación explícita de seguridad o TI de la escuela o el distrito.

Algunos estados, como Indiana, ofrecen a las escuelas la oportunidad de solicitar una subvención competitiva única para financiar una plataforma piloto de IA de su elección, siempre que los proveedores del producto estén aprobados por el estado. Se da prioridad a las propuestas de subvenciones que se centran en el apoyo a los estudiantes o el desarrollo profesional de los docentes.

En otros estados, las escuelas están optando por pruebas piloto financiadas por organizaciones sin fines de lucro. Por ejemplo, una profesora de lengua y literatura de octavo grado en California participó en un proyecto piloto en el que utilizó herramientas de inteligencia artificial para proporcionar retroalimentación sobre la escritura de sus alumnos. “Enseñar a 150 niños al día y brindar retroalimentación significativa a cada estudiante no es posible; intentaría cualquier cosa para reducir las calificaciones y devolverme el tiempo con los niños. Por eso me convertí en maestra: para pasar tiempo con los niños”. Esta maestra también notó que las herramientas mostraban sesgos al analizar el trabajo de sus estudiantes de inglés, lo que le dio la oportunidad de discutir el sesgo algorítmico en estas herramientas.

Una iniciativa de los Países Bajos ofrece un enfoque diferente al de encontrar formas de implementar productos desarrollados por empresas de tecnología. En cambio, las escuelas toman la iniciativa en las preguntas o desafíos que enfrentan y recurren a la industria para desarrollar soluciones basadas en la investigación.

Principios básicos

Un tema que surgió entre los encuestados fue la necesidad de enfatizar los principios éticos al brindar orientación sobre cómo utilizar la tecnología de IA en la enseñanza y el aprendizaje. Esto podría comenzar asegurando que los estudiantes y profesores aprendan sobre las limitaciones y posibilidades de la IA generativa, cuándo y cómo utilizar estas herramientas de manera efectiva, evaluar críticamente su desempeño y divulgar éticamente su uso.

A menudo, los formuladores de políticas luchan por saber por dónde empezar en la formulación de políticas. Analizar las tensiones y la toma de decisiones en un contexto organizacional (o lo que mis colegas y yo llamamos análisis de dilemas en un informe reciente) es un enfoque que las escuelas, los distritos y los estados pueden adoptar para afrontar los innumerables impactos éticos y sociales de la IA generativa.

A pesar de la confusión sobre la IA y las políticas fragmentadas, los formuladores de políticas dijeron que reconocen que es responsabilidad de cada escuela, distrito y estado involucrar a sus comunidades y familias para co-crear un camino a seguir.

Como lo expresó un formulador de políticas: “El conocimiento de que el caballo ya salió del establo (y el uso de la IA) ya prevalece entre estudiantes y profesores… (sobre) la colaboración entre la IA y los humanos frente a una prohibición total, ¿en qué parte del espectro quieres estar?”


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo