Las personas y las instituciones están lidiando con las consecuencias de los textos escritos por inteligencia artificial. Los profesores quieren saber si el trabajo de los estudiantes refleja su propia comprensión; Los consumidores quieren saber si un anuncio fue escrito por un humano o una máquina.
Escribir reglas para regir el uso del contenido generado por IA es relativamente fácil. Su aplicación depende de algo mucho más difícil: detectar de manera confiable si un fragmento de texto es generado por inteligencia artificial.
Algunos estudios han investigado si los humanos pueden detectar texto generado por IA. Por ejemplo, se ha demostrado que las personas que utilizan en gran medida herramientas de escritura de IA detectan con precisión el texto escrito por IA. Un panel de evaluadores humanos puede incluso superar a las herramientas automatizadas en un entorno controlado. Sin embargo, esa experiencia no está muy extendida y la evaluación individual puede ser inconsistente. Por lo tanto, las instituciones que necesitan coherencia a escala están recurriendo a detectores de texto automatizados con IA.
Problema de detección de texto AI
El flujo de trabajo básico detrás de la detección de texto con IA es fácil de describir. Comience con la parte del texto cuyo origen desea determinar. Luego se aplica una herramienta de detección, a menudo un propio sistema de IA, que analiza el texto y produce un resultado, generalmente expresado como una probabilidad, que indica la probabilidad de que el texto haya sido generado por IA. Utilice el resultado para informar las decisiones tomadas, como por ejemplo si se debe imponer una penalización por una infracción de las reglas.
Esta sencilla descripción, sin embargo, esconde una gran complejidad. Cubre una serie de supuestos básicos que deben declararse explícitamente. ¿Sabes qué herramientas de inteligencia artificial probablemente se utilizaron para generar el texto? ¿Qué tipo de acceso tienes a estas herramientas? ¿Puedes ejecutarlos tú mismo o inspeccionar su funcionamiento interno? ¿Cuanto texto tienes? ¿Tiene un solo texto o una colección de escritos recopilados a lo largo del tiempo? Lo que las herramientas de detección de IA pueden y no pueden decirle depende en gran medida de las respuestas a preguntas como estas.
Hay otro detalle que resulta especialmente importante: ¿el sistema de inteligencia artificial que generó el texto incorporó intencionadamente marcadores para facilitar su posterior detección?
Estos indicadores se conocen como marcas de agua. El texto con marca de agua parece texto sin formato, pero los marcadores están incrustados de maneras sutiles que no se revelan a una inspección casual. Alguien con la clave correcta puede verificar posteriormente la presencia de estos marcadores y verificar que el texto proviene de una fuente generada con una marca de agua. Sin embargo, este enfoque depende de la cooperación de los proveedores de IA y no siempre está disponible.
Cómo funcionan las herramientas de detección de texto con IA
Un enfoque obvio es utilizar la propia IA para detectar texto escrito por IA. La idea es clara. Comience recopilando un corpus grande, es decir, una colección de ejemplos escritos etiquetados como escritos por humanos o generados por IA, y luego entrene un modelo para distinguir entre los dos. De hecho, la detección de texto mediante IA se trata como un problema de clasificación estándar, similar en espíritu al filtrado de spam. Una vez entrenado, el detector examina el texto nuevo y predice si se parece más a ejemplos generados por IA o a ejemplos escritos por humanos.
Un enfoque de detector aprendido puede funcionar incluso si se sabe poco sobre qué herramientas de IA podrían haber generado el texto. El principal requisito es que el corpus de formación sea lo suficientemente diverso como para incluir resultados de una amplia gama de sistemas de IA.
Pero si tiene acceso a las herramientas de inteligencia artificial que le interesan, es posible un enfoque diferente. Esta segunda estrategia no se basa en recopilar grandes conjuntos de datos etiquetados ni en entrenar un detector independiente. En cambio, busca señales estadísticas en el texto, a menudo relacionadas con cómo los modelos específicos de IA generan el lenguaje, para juzgar si es probable que el texto sea generado por IA. Por ejemplo, algunos métodos examinan la probabilidad que un modelo de IA asigna a un fragmento de texto. Si un modelo asigna una probabilidad inusualmente alta a una secuencia correcta de palabras, esto puede ser una señal de que el texto, de hecho, fue generado por ese modelo.
Finalmente, en el caso del texto generado por un sistema de inteligencia artificial que incorpora una marca de agua, el problema pasa de la detección a la verificación. Utilizando la clave secreta proporcionada por el proveedor de IA, la herramienta de verificación puede evaluar si el texto es consistente con la generación del sistema de marca de agua. Este enfoque se basa en información que no está disponible únicamente en el texto, en lugar de conclusiones extraídas del texto mismo.
El ingeniero de IA Tom Dean demuestra cómo los detectores de texto de IA comerciales pueden derrotarse fácilmente. Limitaciones de las herramientas de detección.
Cada familia de herramientas tiene sus propias limitaciones, lo que dificulta declarar un ganador claro. Los detectores basados en el aprendizaje, por ejemplo, son sensibles a qué tan parecido se parece el texto nuevo a los datos con los que fueron entrenados. Su precisión disminuye cuando el texto es significativamente diferente del corpus de entrenamiento, que puede quedar obsoleto rápidamente a medida que se lanzan nuevos modelos de IA. La recopilación continua de datos nuevos y el reentrenamiento de los detectores es costoso, y los detectores inevitablemente van a la zaga de los sistemas que se supone que deben identificar.
Las pruebas estadísticas enfrentan un conjunto diferente de limitaciones. Muchos se basan en suposiciones sobre cómo los modelos específicos de IA generan texto o en el acceso a las distribuciones de probabilidad de esos modelos. Cuando los modelos son propietarios, se actualizan con frecuencia o simplemente se desconocen, estos supuestos se desmoronan. Como resultado, los métodos que funcionan bien en entornos controlados pueden volverse poco fiables o inaplicables en el mundo real.
La marca de agua traslada el problema de la detección a la verificación, pero introduce sus propias dependencias. Se basa en la colaboración de proveedores de IA y solo se aplica al texto generado con la marca de agua habilitada.
En términos más generales, la detección de textos mediante IA es parte de una carrera armamentista en aumento. Las herramientas de detección deben estar disponibles públicamente para que sean útiles, pero esa misma transparencia permite la evasión. A medida que los generadores de texto de IA se vuelven más capaces y las técnicas de evasión más sofisticadas, es poco probable que los detectores obtengan una ventaja duradera.
Una dura realidad
El problema de la detección de texto por IA es sencillo de plantear, pero difícil de resolver de forma fiable. Las instituciones con reglas que rigen el uso de texto escrito con IA no pueden depender únicamente de herramientas de detección para hacer cumplir la ley.
A medida que la sociedad se adapte a la IA generativa, es probable que mejoremos las normas relativas al uso aceptable del texto generado por IA y mejoremos las técnicas de detección. Pero al final tendremos que aprender a vivir con el hecho de que esas herramientas nunca serán perfectas.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

