La inteligencia artificial ya forma parte de las aulas universitarias. Herramientas como ChatGPT se han convertido en compañeros de estudio habituales: ayudan a escribir textos, generar ideas o comprender conceptos complejos. ¿Quién no lo está usando todavía y por qué?
En nuestro estudio de 737 estudiantes de pregrado, encontramos que el 70% ya lo usa a diario. Aprecian especialmente la velocidad y simplicidad de la herramienta. Les ayuda a organizar ideas, aclarar dudas y ahorrar tiempo en tareas que de otro modo serían más largas o tediosas. La perciben como una profesora disponible las 24 horas del día, capaz de explicar de otra manera lo que no entienden en clase.
Riesgos que frenan su uso
La mayoría de los estudiantes que participaron en las encuestas perciben riesgos al utilizar ChatGGPT, ya que son acusados de plagio y de recibir información cuestionable o falsa o de violar las normas académicas de su universidad. Otras cuestiones que preocupan en menor medida a los estudiantes son el hecho de que el uso de esta herramienta no esté regulado y la falta de protección de datos y privacidad.
Estos riesgos percibidos son cruciales a la hora de elegir utilizar o no CHATGPT. Para los estudiantes más conscientes de los riesgos, la herramienta deja de ser percibida como una ayuda y se convierte en algo que prefieren mantener a distancia. Cuanto más conscientes son de los riesgos, menos los utilizan.
Leer también: ¿Están contados los días de los proyectos finales de estudio tal como los conocemos?
La importancia de la honestidad académica
¿Por qué los estudiantes son más sensibles a estos riesgos? En las universidades españolas, por ejemplo, todavía no existen normas claras ni formación específica sobre el uso de la IA, como analizamos en un artículo reciente. Sin embargo, nuestra hipótesis es que la diferencia se explica no sólo por factores externos, como la falta de regulación, sino también por algo más interno: la propia percepción de los estudiantes sobre lo que es honesto y lo que no lo es en el ámbito académico.
La llamada percepción de deshonestidad académica se refiere a las creencias éticas de los estudiantes sobre qué conductas consideran aceptables o inaceptables en su universidad. Por ejemplo, harían trampa en un examen (con hojas de referencia o dispositivos electrónicos), mentirían para obtener ventajas académicas (como pedir una extensión con falsos pretextos) o harían pasar por su propio trabajo que en realidad fue preparado por otra persona.
Lea también: escribir en la universidad en la era de la inteligencia artificial
El 83% de los estudiantes considera este tipo de comportamiento académico deshonesto o muy deshonesto. Y dentro de este grupo, se observó una sorprendente correlación: aquellos que más desaprobaban las prácticas poco éticas en el ambiente universitario, como hacer trampa en un examen o hacer pasar el trabajo de otra persona como propio, tendían a percibir más riesgo al usar ChatGpt. Y esa percepción se tradujo en una menor frecuencia de uso y poca intención de seguir usándolo en el futuro.
Usar ChatGGPT como una decisión ética
Nuestros resultados muestran que, antes de decidir si utilizar CHATGGPT, los estudiantes sopesan los beneficios y riesgos. De un lado de la balanza se mueven con rapidez y soltura; Por otro lado, la privacidad, la calidad de las respuestas o el miedo a sanciones académicas. Lo que equilibra los consejos no es sólo el peso de cada argumento, sino la forma en que se juzgan. La brújula ética de cada alumno amplifica los riesgos o, por el contrario, los minimiza y acaba guiando la decisión final.
Este hallazgo lleva a una conclusión importante: el desafío para las universidades será seguir esta brújula ética individual con normas institucionales claras y capacitación específica. Esto puede, por ejemplo, en protocolos sobre el uso de la IA en diferentes materias y trabajos académicos o en cursos y talleres que enseñen a utilizar estas herramientas de manera crítica y responsable.
Desarrollar estándares en colaboración
Para ilustrar cómo se puede abordar este desafío en la práctica, diseñamos un taller sobre inteligencia artificial generativa para estudiantes universitarios. Se realizaron encuestas en vivo, debates míticos y desarrollo colectivo de estándares de uso responsable. El 72,8% afirmó sentirse más preparado para utilizar la IA de forma adecuada y responsable.
Este tipo de iniciativas no sólo informan a los estudiantes y les enseñan cómo utilizar mejor la herramienta, sino que también fortalecen su brújula ética. Te ayudan a aprovechar el potencial de la inteligencia artificial sin perder de vista la integridad académica que sustenta la vida universitaria. Lo importante no es tanto lo que la IA es capaz de hacer, sino las decisiones que tomamos sobre cómo queremos usarla en la universidad.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

