Como sociólogo que enseña sobre inteligencia artificial y estudia el impacto de esta tecnología en el trabajo, estoy bien versado en la investigación sobre el auge de la inteligencia artificial y sus consecuencias sociales. Y cuando las cuestiones éticas se analizan desde múltiples perspectivas (las de los estudiantes, las instituciones de educación superior y las empresas de tecnología), queda claro que la carga del uso responsable de la inteligencia artificial no debería recaer enteramente sobre los hombros de los estudiantes.
Sostengo que la responsabilidad, en términos generales, comienza con las empresas detrás de esta tecnología y debería ser asumida por las propias instituciones de educación superior.
Prohibir o no prohibir la IA generativa
Comencemos con lo que han hecho algunos colegios y universidades: prohibir productos de inteligencia artificial generativa, como ChatGPT, en parte por preocupación por la integridad académica de los estudiantes.
Si bien hay evidencia de que los estudiantes están usando esta tecnología de manera inapropiada, prohibir la IA generativa ignora las investigaciones que indican que puede mejorar el rendimiento académico de los estudiantes. Los estudios también han demostrado que la inteligencia artificial generativa puede tener otros beneficios educativos, por ejemplo para los estudiantes con discapacidades. Además, las instituciones de educación superior tienen la responsabilidad de preparar a los estudiantes para trabajos dotados de inteligencia artificial.
Dados los beneficios de la inteligencia artificial generativa y su uso generalizado entre los estudiantes, muchas facultades y universidades hoy en día han integrado la inteligencia artificial generativa en sus planes de estudio. Algunas instituciones de educación superior incluso han brindado a los estudiantes acceso gratuito a estas herramientas a través de sus cuentas escolares. Sin embargo, creo que estas estrategias implican consideraciones y riesgos éticos adicionales.
Al igual que con oleadas tecnológicas anteriores, la adopción de inteligencia artificial generativa puede exacerbar las desigualdades en la educación, dado que no todos los estudiantes tendrán acceso a la misma tecnología. Si las escuelas fomentan el uso generativo de la IA sin brindar a los estudiantes acceso gratuito, habrá una división entre los estudiantes que pueden pagar una suscripción y los que usan las herramientas gratuitas.
Además de esto, los estudiantes que utilizan herramientas gratuitas tienen pocas garantías de privacidad en Estados Unidos. Cuando usan estas herramientas, incluso cosas tan simples como “Hola ChatGPT, ¿puedes ayudarme a plasmar una idea en papel?” – los estudiantes producen datos potencialmente valiosos que las empresas utilizan para mejorar sus modelos. Por el contrario, las versiones pagas pueden ofrecer más protección de datos y pautas de privacidad más claras.
Las instituciones de educación superior pueden abordar las cuestiones de equidad y ayudar a proteger los datos de los estudiantes solicitando licencias a los proveedores de privacidad de los estudiantes. Estas licencias pueden proporcionar a los estudiantes acceso gratuito a herramientas de IA generativa y especificar que los datos de los estudiantes no se utilizan para entrenar o mejorar modelos. Sin embargo, no son una panacea.
¿Quién es el responsable ahora?
En Enseñar con inteligencia artificial, José Antonio Bowen y C. Edward Watson sostienen que las instituciones de educación superior deben repensar su enfoque de la integridad académica. Estoy de acuerdo con su evaluación, pero por razones éticas que no se tratan en su libro: la integración de la IA generativa en el plan de estudios a través de contratos con proveedores implica que las instituciones de educación superior reconozcan las transgresiones de las empresas de tecnología y consideren cuidadosamente las implicaciones de poseer datos de los estudiantes.
Para las instituciones de educación superior, creo que estas cuestiones deberían plantearse antes de firmar licencias de proveedores de IA. Como sugiere el artículo del Chronicle of Higher Education, los colegios y universidades deberían verificar los resultados de los modelos de IA como lo harían con los trabajos de los estudiantes. Si no hicieron esto antes de firmar los contratos con los proveedores, veo pocas bases para que busquen una violación tradicional de la “integridad académica” por presunto plagio de estudiantes. En cambio, las instituciones de educación superior deberían considerar cambios en sus políticas de integridad académica.
Luego está la cuestión de cómo se manejan los datos de los estudiantes en los contratos con proveedores de IA. Una posible fuente de preocupación para los estudiantes es si su escuela, como cliente comercial y propietario de datos, registra interacciones con identificadores y puede presentar cargos de integridad académica y otras cuestiones basadas en eso.
La solución a esto es simple: las instituciones de educación superior pueden mostrar de manera destacada los términos y condiciones de dichos acuerdos a los miembros de su comunidad. Si los colegios y universidades no están dispuestos a hacerlo, o si sus propios líderes no entienden los términos, entonces tal vez las instituciones deban repensar sus estrategias de IA.
Las cuestiones de privacidad de datos mencionadas anteriormente adquieren un nuevo significado dadas las formas en que se utiliza actualmente la IA generativa, a veces como “compañeros” con quienes las personas comparten información muy personal. OpenAI estima que alrededor del 70% del uso de ChatGPT por parte de los consumidores tiene fines no laborales. El director ejecutivo de OpenAI, Sam Altman, reconoce que la gente recurre a ChatGPT para “decisiones profundamente personales que implican consejos de vida, entrenamiento y apoyo”.
Si bien se desconocen los efectos a largo plazo del uso de chatbots como compañeros o confidentes, el caso reciente de un adolescente que se suicidó mientras interactuaba con ChatGPT es un trágico recordatorio de los riesgos de la inteligencia artificial generativa y la importancia de garantizar la seguridad personal de las personas junto con su privacidad.
Hacer declaraciones explícitas de que la IA generativa solo debe usarse con fines académicos podría ayudar a mitigar los riesgos de que los estudiantes formen conexiones emocionales potencialmente dañinas con los chatbots. También podrían hacerlo los recordatorios sobre la salud mental del campus y otros recursos. Educar a estudiantes y profesores sobre todos estos temas y más puede ayudar a promover el uso personalmente responsable de la inteligencia artificial.
Pero los colegios y universidades no pueden eludir sus propias responsabilidades. En algún momento, las instituciones de educación superior pueden descubrir que esa responsabilidad es demasiado para soportar y que sus estrategias de mitigación de riesgos son esencialmente parches para un problema sistémico.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

