En la educación especial de Estados Unidos, la financiación es escasa y la escasez de personal es generalizada, lo que hace que muchos distritos escolares tengan dificultades para contratar profesionales cualificados y dispuestos.
En medio de estos desafíos de larga data, existe un interés creciente en el uso de herramientas de inteligencia artificial para ayudar a solucionar algunas de las brechas que enfrenta actualmente el campo y reducir los costos laborales.
Más de 7 millones de niños reciben prestaciones financiadas con fondos federales en virtud de la Ley de Educación para Personas con Discapacidades, que garantiza a los estudiantes el acceso a una educación adaptada a sus necesidades físicas y psicológicas únicas, así como a procesos legales que permiten a las familias negociar apoyos. La educación especial involucra una variedad de profesionales, incluidos especialistas en rehabilitación, logopedas y asistentes de enseñanza. Pero estos especialistas son escasos, a pesar de la probada necesidad de sus servicios.
Como profesor asociado de educación especial que trabaja con inteligencia artificial, veo su potencial y sus dificultades. Si bien los sistemas de IA pueden reducir las cargas administrativas, brindar orientación experta y ayudar a los profesionales sobrecargados a administrar su carga de casos, también pueden presentar desafíos éticos, desde el sesgo de las máquinas hasta problemas más amplios de confianza en los sistemas automatizados. También corren el riesgo de exacerbar los problemas existentes con la forma en que se prestan los servicios especiales.
Aún así, algunos en el campo están optando por probar herramientas de inteligencia artificial en lugar de esperar la solución perfecta.
IEP más rápido, pero ¿qué tan individualizado?
La IA ya está dando forma a la planificación, la preparación y la evaluación del personal de la educación especial.
Un ejemplo es el programa de educación individualizada, o IEP, el principal instrumento para guiar los servicios que recibe un niño. Un IEP se basa en una variedad de evaluaciones y otros datos para describir las fortalezas de un niño, determinar sus necesidades y establecer metas mensurables. Cada parte de este proceso depende de profesionales capacitados.
Pero la persistente escasez de fuerza laboral significa que los distritos a menudo tienen dificultades para completar evaluaciones, actualizar planes e integrar las opiniones de los padres. La mayoría de los distritos desarrollan IEP utilizando software que requiere que los profesionales elijan entre un conjunto generalizado de respuestas u opciones memorizadas, lo que lleva a un nivel de estandarización que no logra satisfacer las verdaderas necesidades individuales del niño.
La investigación preliminar ha demostrado que los modelos de lenguaje grandes, como ChatGPT, pueden generar documentos clave de educación especial, como los IEP, utilizando múltiples fuentes de datos, incluida información de estudiantes y familias. Los chatbots que pueden crear rápidamente IEP podrían ayudar a los profesionales de la educación especial a satisfacer mejor las necesidades de cada niño y sus familias. Algunas organizaciones profesionales de educación especial incluso han alentado a los profesores a utilizar la IA para documentos como planes de lecciones.
Formación y diagnóstico de discapacidad.
También existe potencial para que los sistemas de IA ayuden a respaldar la capacitación y el desarrollo profesional. Mi propio trabajo de desarrollo de personal combina varias aplicaciones de inteligencia artificial con realidad virtual para permitir a los profesionales ensayar rutinas de enseñanza antes de trabajar directamente con los niños. En este caso, la IA puede funcionar como una extensión práctica de los modelos de capacitación existentes, ofreciendo práctica repetida y apoyo estructurado de maneras que son difíciles de sostener con personal limitado.
Algunos distritos han comenzado a utilizar inteligencia artificial para las evaluaciones, que pueden incluir una variedad de evaluaciones académicas, cognitivas y médicas. Las aplicaciones de inteligencia artificial que combinan el reconocimiento automático del habla y el procesamiento del lenguaje se están utilizando ahora en evaluaciones de lectura oral mediadas por computadora para calificar las pruebas de capacidad de lectura de los estudiantes.
Los profesionales a menudo tienen dificultades para comprender el volumen de datos que recopilan las escuelas. Las herramientas de aprendizaje automático impulsadas por IA también pueden ayudar en este sentido, al identificar patrones que pueden no ser inmediatamente visibles para los docentes para su evaluación o toma de decisiones educativas. Dicho apoyo puede ser particularmente útil en el diagnóstico de discapacidades como el autismo o las dificultades de aprendizaje, donde el enmascaramiento, la presentación variable y las historias incompletas pueden dificultar la interpretación. Mi investigación en curso muestra que la IA actual puede hacer predicciones basadas en datos que probablemente estén disponibles en algunos condados.
Preocupaciones sobre privacidad y confianza
Existen serias cuestiones éticas (y prácticas) sobre estas intervenciones respaldadas por IA, que van desde riesgos para la privacidad de los estudiantes hasta prejuicios de las máquinas y problemas más profundos de confianza familiar. Algunos dependen de si los sistemas de IA pueden o no brindar servicios que realmente cumplan con la ley existente.
¿Qué sucede si un sistema de inteligencia artificial utiliza datos o métodos sesgados para generar una recomendación para un niño? ¿Qué pasa si el sistema de IA hace un mal uso o filtra datos de los niños? El uso de sistemas de IA para realizar algunas de las funciones descritas anteriormente coloca a las familias en una posición en la que se espera que confíen no solo en su distrito escolar y su personal de educación especial, sino también en los sistemas de IA comerciales, cuyo funcionamiento interno es en gran medida insondable.
Estos dilemas éticos no son exclusivos de las ediciones especiales; muchos se criaron en otros campos y fueron tratados por los primeros usuarios. Por ejemplo, si bien los sistemas de reconocimiento automático de voz o ASR han tenido dificultades para evaluar con precisión el acento del inglés, muchos proveedores ahora están entrenando sus sistemas para adaptarse a acentos étnicos y regionales específicos.
Pero las investigaciones en curso sugieren que algunos sistemas ASR tienen una capacidad limitada para adaptarse a las diferencias del habla relacionadas con la discapacidad, tener en cuenta el ruido en el aula y distinguir entre diferentes voces. Aunque estos problemas pueden resolverse mediante mejoras técnicas en el futuro, tienen consecuencias en el presente.
Sesgo incorporado
A primera vista, puede parecer que los modelos de aprendizaje automático mejoran la toma de decisiones clínicas tradicionales. Sin embargo, los modelos de IA deben entrenarse con datos existentes, lo que significa que sus decisiones pueden seguir reflejando sesgos de larga data en la forma en que se identifican las discapacidades.
De hecho, las investigaciones han demostrado que los sistemas de IA se ven habitualmente limitados por sesgos tanto en los datos de entrenamiento como en el diseño del sistema. Los modelos de IA también pueden introducir nuevos sesgos, ya sea al omitir información sutil revelada durante las evaluaciones personales o al sobrerrepresentar las características de los grupos incluidos en los datos de entrenamiento.
Tales preocupaciones, podrían argumentar los defensores, se abordan mediante salvaguardias ya incorporadas en la ley federal. Las familias tienen considerable libertad en lo que aceptan y pueden optar por alternativas, siempre que sean conscientes de que pueden dirigir el proceso del IEP.
De manera similar, el uso de herramientas de inteligencia artificial para crear IEP o lecciones puede parecer una mejora obvia con respecto a planes superficiales o poco desarrollados. Sin embargo, una verdadera individualización requeriría ingresar datos protegidos en grandes modelos lingüísticos, lo que podría violar las normas de privacidad. Y si bien las aplicaciones de IA pueden producir fácilmente IEP y otros trámites administrativos más atractivos, eso no necesariamente resulta en mejores servicios.
Llenando el vacío
De hecho, todavía no está claro si la IA proporciona un estándar de atención equivalente al tratamiento convencional de alta calidad al que tienen derecho los niños con discapacidades del desarrollo según la ley federal.
En 2017, la Corte Suprema rechazó la idea de que la Ley de Educación para Personas con Discapacidad solo da derecho a los estudiantes a un progreso trivial y “de minimis”, socavando una de las principales razones para perseguir la inteligencia artificial: que pueda cumplir con un estándar mínimo de atención y práctica. Y dado que la IA en realidad no ha sido evaluada empíricamente a escala, no se ha demostrado que cumpla adecuadamente con el bajo estándar de mejora simple más allá del status quo defectuoso.
Pero eso no cambia la realidad de los recursos limitados. Para bien o para mal, la IA ya se está utilizando para llenar el vacío entre lo que exige la ley y lo que el sistema realmente ofrece.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

