En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevas presentaciones porque muchas de ellas estaban generadas por inteligencia artificial. Como pudieron ver los editores, muchos remitentes pegaron las pautas detalladas de la historia de la revista en AI y enviaron los resultados. Y no estaban solos. Otras revistas de ficción también han informado de un gran número de envíos generados por IA.
Este es sólo un ejemplo de una tendencia generalizada. El sistema heredado se basaba en la dificultad de la escritura y la cognición para limitar el alcance. La IA generativa abruma el sistema porque los humanos en el lado receptor no pueden seguir el ritmo.
Al igual que la respuesta original de Clarkesworld, algunas de estas instituciones han cerrado sus procesos de presentación. Otros se han enfrentado al ataque de la IA con una cierta respuesta defensiva, que a menudo implica el uso de contra-IA. Los revisores académicos utilizan cada vez más la IA para evaluar artículos que pueden haber sido generados mediante inteligencia artificial. Las plataformas de redes sociales están recurriendo a moderadores de IA. Los sistemas judiciales utilizan inteligencia artificial para clasificar y procesar el volumen de casos judiciales que la IA ha cobrado de más. Los empleadores están recurriendo a herramientas de inteligencia artificial para revisar las solicitudes de los candidatos. Los profesores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino también como herramienta de retroalimentación para los estudiantes.
Todas estas son carreras armamentistas: iteraciones rápidas y adversarias para aplicar tecnología compartida con fines contradictorios. Muchas de estas carreras armamentistas tienen efectos claramente nocivos. La sociedad sufre si los tribunales se atascan con casos frívolos producidos por la inteligencia artificial. También resulta perjudicial si las medidas establecidas de rendimiento académico (publicaciones y citas) se dirigen a aquellos investigadores más dispuestos a falsificar cartas y artículos escritos por IA, en lugar de aquellos cuyas ideas tienen el mayor impacto. El temor es que, en última instancia, el comportamiento fraudulento permitido por la IA socave los sistemas e instituciones de los que depende la sociedad.
Ventajas de la IA
Aún así, algunas de estas carreras armamentistas de IA tienen sorprendentes beneficios ocultos, y la esperanza es que al menos algunas instituciones puedan cambiar de manera que las hagan más fuertes.
Parece probable que la ciencia se fortalezca gracias a la IA, pero se enfrenta a un problema cuando la IA comete errores. Consideremos el ejemplo del filtrado sin sentido de frases generadas por IA en artículos científicos.
Que un científico utilice la IA para ayudar a escribir un artículo académico puede ser algo bueno, si se utiliza con cuidado y con divulgación. La IA es cada vez más la herramienta principal en la investigación científica: para revisión de literatura, programación y codificación y análisis de datos. Y para muchos, se ha convertido en un soporte clave para la expresión y la comunicación científica. Antes de la IA, los investigadores mejor financiados podían contratar humanos para que los ayudaran a escribir sus artículos académicos. Para muchos autores cuyo idioma principal no es el inglés, contratar este tipo de ayuda ha sido una necesidad costosa. La IA se lo da a todos.
En la ficción, las obras generadas por IA enviadas falsamente causan daño, tanto a los autores humanos que ahora están sujetos a una mayor competencia, como a aquellos lectores que pueden sentirse engañados después de leer sin saberlo el trabajo de la máquina. Pero algunas casas pueden aceptar presentaciones asistidas por IA con la divulgación adecuada y bajo ciertas pautas, y usar IA para evaluarlas según criterios como originalidad, idoneidad y calidad.
Otros pueden rechazar el trabajo generado por IA, pero tendrá un costo. Es poco probable que algún editor humano o tecnología pueda mantener la capacidad de distinguir la escritura humana de la máquina. En cambio, los editores que quieran publicar exclusivamente para humanos tendrán que limitar los envíos a un grupo de autores en los que confíen que no utilizarán inteligencia artificial. Si estas pautas son transparentes, los lectores pueden elegir su formato preferido y disfrutar leyendo uno o ambos tipos de medios.
Tampoco vemos ningún problema si un solicitante de empleo utiliza la IA para pulir su currículum o escribir mejores cartas de presentación: los ricos y privilegiados han tenido acceso a ayuda humana para esas cosas desde hace mucho tiempo. Pero se cruza la línea cuando se utiliza la inteligencia artificial para mentir sobre la identidad y la experiencia, o para hacer trampa en entrevistas de trabajo.
Los detectores de texto de IA comerciales actuales están lejos de ser infalibles. refuerzo de estafa
Lo que no queremos es que los lobbystas utilicen la IA para campañas de césped artificial, escriban múltiples cartas y las hagan pasar como opiniones individuales. Este también es un problema antiguo que la IA está empeorando.
Lo que diferencia aquí lo positivo de lo negativo no es el aspecto inherente de la tecnología, sino la dinámica de poder. La misma tecnología que reduce el esfuerzo requerido por los ciudadanos para compartir su experiencia con sus legisladores también permite que los intereses corporativos tergiversen al público a gran escala. La primera es la aplicación de inteligencia artificial para igualar el poder que mejore la democracia participativa; este último es una aplicación de la concentración de poder que lo amenaza.
En general, creemos que la escritura y las ayudas cognitivas, que desde hace mucho tiempo están disponibles para los ricos y poderosos, deberían estar disponibles para todos. El problema surge cuando la inteligencia artificial facilita el fraude. Cualquier respuesta debe equilibrar la adopción de esa recién descubierta democratización del acceso con la prevención del fraude.
No hay forma de desactivar esta tecnología. Las IA de alta capacidad están ampliamente disponibles y pueden ejecutarse en una computadora portátil. Las directrices éticas y los límites profesionales claros pueden ayudar, para quienes actúan de buena fe. Pero nunca habrá una manera de impedir por completo que los escritores académicos, los solicitantes de empleo o los ciudadanos utilicen estas herramientas, ya sea como ayuda legítima o para cometer fraude. Eso significa más comentarios, más cartas, más informes, más envíos.
El problema es que quienquiera que sea el receptor de esta avalancha impulsada por la IA no puede soportar el aumento del volumen. Lo que puede ayudar es el desarrollo de herramientas de IA de asistencia que beneficien a las instituciones y a la sociedad y al mismo tiempo limiten el fraude. Y eso puede significar aceptar el uso de la asistencia de la IA en estos sistemas adversarios, aunque la IA defensiva nunca alcanzará la supremacía.
Equilibrar el daño con el beneficio
La comunidad de ciencia ficción ha estado lidiando con la inteligencia artificial desde 2023. Clarkesworld finalmente reabrió las presentaciones, alegando que tenía una forma adecuada de separar las historias escritas por humanos y por IA. Nadie sabe durante cuánto tiempo ni qué tan bien seguirá funcionando.
La carrera armamentista continúa. No existe una manera fácil de saber si los beneficios potenciales de la IA superarán los daños, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio entre el daño que causa y las oportunidades que nos presenta a medida que avanzamos en el cambiante panorama tecnológico.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

