La gente ahora usa chatbots rutinariamente para escribir un código de computadora, resumir artículos y libros o buscando consejos. Pero estos chatbots también se emplean para generar rápidamente texto a partir de cero, y algunos usuarios cruzan las palabras como propias.
Esto no es sorprendente, creó dolores de cabeza para los maestros que están a cargo de evaluar el trabajo escrito de su estudiante. Preguntas para personas que buscan asesoramiento sobre foros como Reddit o revisiones de productos de consultoría antes de la compra también se crean.
Durante los últimos años, los investigadores investigaron si era posible distinguir la escritura humana del texto que creó inteligencia artificial. Pero las mejores estrategias para distinguir entre los dos pueden provenir del chatbot mismos.
¿Demasiado bueno para ser un hombre?
Varios estudios recientes señalaron lo difícil que es determinar si el texto generó humano o chatbot.
Los expertos en idiomas no son mejores. En el Estudio 2023. Los miembros editoriales de las principales revistas lingüísticas no pudieron determinar qué artículo de resúmenes fueron escritos por personas y quién fueron generados por el ChatGGPT. Y el estudio de 2024 encontró que el 94% del examen de pregrado escrito por Chatggpt de que los alumnos no fueron detectados por la Universidad de la Universidad Británica.
Está claro que las personas no son muy buenas en eso.
Por lo general, es la creencia de que son palabras raras o inusuales que pueden servir como “hablar” en términos de autoría, al igual que de alguna manera de alguna manera ser de alguna manera dar una mano ganadora.
Los investigadores, de hecho, documentaron un aumento dramático en palabras relativamente inusuales, como “conceptos erróneos” o “cruciales”, en artículos publicados en revistas científicas en los últimos años. Esto sugiere que los términos inusuales podrían servir como si se usara IA generativa. También implica que algunos investigadores usan activamente bots para escribir o editar partes de sus presentaciones a revistas académicas. Si esta práctica refleja el abuso es para la discusión.
En otro estudio, los investigadores preguntaron a las personas sobre las características que se conectan con el chatbot generado por el texto. Muchos participantes señalaron el uso excesivo de EM Dash, un tablero alargado utilizado para iniciar texto o servir como una pausa en el pensamiento, como un marcador único con una salida generada por computadora. Pero incluso en este estudio, la tasa de detección de IA de los participantes fue solo marginalmente mejor que la oportunidad.
Dado un rendimiento tan malo, ¿por qué muchas personas creen que los cajas de emergencias son claras para Chatbote? Puede deberse a que esta forma de puntuación es empleada principalmente por escritores experimentados. En otras palabras, las personas pueden creer que la escritura que es “demasiado buena” debe generarse artificialmente.
Pero si las personas no pueden hablar intuitivamente de la diferencia, puede haber otros métodos para determinar la autoría artificial opuesta humana.
Estilometría para la salvación?
Algunas respuestas se pueden encontrar en el área de los estilómetros, en el que los investigadores usan métodos estadísticos para detectar variaciones en los estilos de escritura de los autores.
Soy un científico cognitivo que emitió un libro sobre la historia de las técnicas estilométricas. En él, documento cómo los investigadores desarrollaron métodos para establecer la autoría en casos en disputa o para determinar quién puede tener textos anónimos.
Una herramienta para determinar la autoría propuesta al científico australiano John Barrows. Desarrolló Delta Barrows, una técnica computarizada que examina la frecuencia relativa de las palabras comunes, a diferencia de RARE, que aparecen en diferentes textos.
Puede parecer contrintuitivo pensar que el uso de palabras como “el” “y” o “o” “pueden determinar la autoría, pero la técnica es impresionantemente efectiva.
La técnica estilométrica llamada Delta Barrom se utilizó para identificar Lasalle Corbell Pickett como autores de cartas de amor atribuidas a su fallecido general George George. Enciclopedia Virginia
Delta Barrows, por ejemplo, se utilizó para establecer Ruth Plumli Thompson, el sucesor de L. Frank Baum, fue autor de un libro en disputa en la serie “Wizard Oz”. También se usó para determinar que las cartas de amor se atribuyeron a la confederación George Pickett, son en realidad los inventos de su viuda, LaSalle Corbell Pickett.
La principal falta de delta y técnicas similares es que necesitan una cantidad bastante grande de texto para distinguir de manera confiable a los autores. Estudio 2016. Año, descubrió que se pueden requerir al menos 1,000 palabras de cada autor. Un ensayo de estudiante relativamente corto, por lo tanto, no proporcionaría suficientes entradas para que la técnica estadística haga su magia de atribución.
El trabajo reciente ha utilizado lo que se conoce como modelos del lenguaje Bert, que están capacitados en grandes cantidades de texto que se generan para humanos y chatbot. Los modelos aprenden formularios que son comunes en cada tipo de escritura y pueden ser muy discriminados que las personas: son entre el 80% y el 98% precisos.
Sin embargo, estos modelos de maquinaria son “cajas negras”, es decir, realmente no sabemos qué características de los textos son responsables de sus impresionantes habilidades. Los investigadores están tratando activamente de encontrar formas de tener sentido, pero por ahora no está claro si los modelos revelan señales específicas y confiables que las personas pueden buscar.
Objetivo móvil
Otro desafío para reconocer el texto que creó un bot es que los modelos en sí mismos cambian constantemente, a veces de excelentes maneras.
Por ejemplo, a principios de 2025. Años, los usuarios comenzaron a expresar su preocupación de que Chatggpt se volviera excesivo, con consultas diarias que se consideran “asombrosas” o “fantásticas”. OpenAi ha resuelto el problema al revertir algunos cambios que ha realizado.
Por supuesto, el estilo de escribir autores humanos también puede cambiar con el tiempo, pero generalmente funciona gradualmente.
En algún momento se preguntó qué tenían que decir los bots ellos mismos. Le pregunté al chatggpt-4o: “¿Cómo puedo decir si Chatggpt generó alguna prosa? ¿Tienen” hablar “, como una elección característica o puntuación de las palabras?”
El bot admitió que la distinción de un hombre de prosa que no se realiza “puede ser difícil”. Aún así, me proporcionó una lista de 10 elementos, llenos de ejemplos.
Incluyeron el uso de setos, palabras como “a menudo” y “en general”, así como excedentes, redistribución en listas y “tono pulido y neutral”. Mencionó “diccionarios predecibles”, que incluían ciertos adjetivos como “significativos” e “implicaciones” y complejidad “. Sin embargo, aunque estas características del texto generado por ChatBot son comunes, concluyó que” ninguno era final. “
Los chatbots son conocidos por alucinar o errores objetivos reales.
Pero cuando se trata de decirse a sí mismo, parecen sorprendentemente perceptuales.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.