AI ha facilitado que nunca encontrar la información: pregunte a Chatggpt casi todo, y el sistema rápidamente ofrece la respuesta. Pero los grandes modelos del lenguaje que plantean herramientas populares como Operai Chatgpt o Anthrope Claude no fueron diseñados para ser correctos o objetivos. Regularmente “alucinan” y ofrecen falsos como si fueran hechos difíciles.
Aún así, la gente confía cada vez más y responde sus preguntas. La mitad de todas las personas en los Estados Unidos entre 14 y 22 años, ahora usa y para obtener información, de acuerdo con los estudios de Harvard desde 2024. Años. El análisis del Washington Post ha determinado que más del 17% de las instrucciones de devolución en la solicitud de información de ChatGGPT.
Una forma en que los investigadores intentan mejorar la información y los sistemas que los sistemas indican qué tan seguros están en la precisión de sus respuestas. Soy un científico informático que estudia procesamiento natural y aprendiendo una máquina. Mi laboratorio en la Universidad de Michigan ha desarrollado una nueva forma de realizar resultados de confianza que mejora la precisión de las respuestas de AI Chatbot. Pero los resultados de la confianza en sí mismo solo pueden funcionar tanto.
Popular y problemático
La tecnología principal de la compañía integra cada vez más la IA en los motores de búsqueda. Google Now ofrece una vista previa de IA que aparece como un resumen del texto anterior a la lista habitual de conexiones en cualquier resultado de la búsqueda. Otros motores de búsqueda, como la confusión, causan búsquedas de motores tradicionales con sus propias temporadas generadas por A.
El beneficio de estos Picentos ha hecho que estas herramientas sean muy populares. ¿Por qué el contenido de propósito es más sitios web cuando la IA puede proporcionar la información más apropiada en unos segundos?
Las herramientas parecen ofrecer una vía suave y más rápida para obtener información. Pero también pueden llevar a las personas a desviarse o incluso exhibirles falsedades dañinas. Mi laboratorio reveló que incluso los modelos de IA más precisos están alucinando en el 25% de las solicitudes. Esta tasa de alucinación se refiere a que otras investigaciones sugieren que la IA puede afectar lo que la gente piensa.
Enfatiza: AI Chatbots está diseñado para sonar bien, no brinde información precisa.
Los modelos lingüísticos son alucinantes porque aprenden y trabajan en formas estadísticas que se extraen de una gran cantidad de datos textuales, la mayoría de los cuales son más altos que Internet. Esto significa que no se basan necesariamente en hechos reales en el mundo real. También carecen de otras competencias humanas, como el sentido común y la capacidad de distinguir expresiones serias y sarcásticas.
Todo fue en la presentación de la primavera pasada, cuando el usuario estableció Google y el examen de la herramienta para sugerir una forma de dejar que el queso se deslice de la pizza. La herramienta se recomienda inmediatamente mezclando queso con adhesivo. Luego hubo una luz que una vez una vez publicó esto obviamente una recomendación de idiomas en Reddit. Como la mayoría de los modelos de idiomas grandes, el modelo de Google probablemente esté capacitado con información actual de innumerables fuentes en línea, incluido Reddit. Luego malinterpretó la broma de este usuario como una verdadera propuesta.
Aunque la mayoría de los usuarios no avanzarían seriamente por el peinado, cierta información alucinada puede causar daños reales. Los motores de búsqueda de IA y los chatbots han atrapado repetidamente en el que se cita la pseudio racista. El año pasado, Confusion Ai dijo que el oficial de policía en California era culpable de delitos que no se comprometieron.
Mostrando la confianza en sí mismo
Construcción de sistemas de IA que la veracidad prioritaria es desafiante, pero no imposible. Una forma en que y los desarrolladores abordan este problema, es el diseño de modelos que transmiten su confianza en sus respuestas. Esto generalmente viene en forma de resultados de confianza, el número que indica cómo es probable que el modelo proporcione información precisa. Pero la evaluación del modelo de confianza en el contenido que proporciona es una tarea complicada.
Cómo resultan en una reputación de confianza en sí mismo en el aprendizaje automático.
Un enfoque común para hacer esta evaluación implica establecer el modelo para responder una consulta dada varias veces. Si el modelo es confiable, debe crear respuestas similares a la misma consulta. Si esto no se responde constantemente, y probablemente falte información que deba responder con precisión. Con el tiempo, los resultados de estas pruebas se convierten en resultados de confianza de IA para ciertos elementos.
Otros enfoques estiman la precisión de la IA por aliento directo y modelos de capacitación para proporcionar consideración de que confían en sus respuestas. Pero no ofrece responsabilidad real. Permitir que AI evalúe su propia confianza deja espacio para que el sistema haga una clase de pasaje y continúe ofreciendo información falsa o dañina.
Mi laboratorio ha diseñado algoritmos que asignan resultados de confianza al salir del lenguaje alto en los requisitos individuales que pueden cambiar automáticamente a Wikipedia. Estimamos la equivalencia semántica entre la producción de modelos AI y las entradas referenciadas de la Wikipedia para reclamos. Nuestro enfoque permite y para evaluar rápidamente la precisión de todas sus declaraciones. Por supuesto, confiar en los artículos de Wikipedia, que generalmente, pero no siempre precisos, también tienen sus limitaciones.
La publicación de resultados de confianza en sí mismo, junto con las respuestas del modelo, podría ayudar a las personas a pensar críticamente sobre la verdad de la información que proporcionan estas herramientas. El modelo de idioma también se puede capacitar para negar información si gana el resultado de la confianza que cae por debajo del umbral establecido. Mi laboratorio también ha demostrado que los resultados de la confianza se pueden utilizar para ayudar y generar respuestas con mayor precisión.
Límites de confianza
Todavía es un largo camino para garantizar una IA realmente precisa. La mayoría de estos enfoques suponen que la información requerida para la evaluación adecuada de la precisión de la IA se puede encontrar en Wikipedia y otras bases de datos de redes.
Pero cuando la información correcta simplemente no es tan fácil de venir, las estimaciones de confianza pueden ser incorrectas. Para considerar tales casos, Google ha desarrollado mecanismos especiales para evaluar las declaraciones generadas por la IA. Mi laboratorio ha realizado la base de datos de referencia en una base de datos de referencia que generalmente causará alucinaciones.
Pero todos estos enfoques verifican los hechos básicos: no existen métodos automatizados para evaluar otras facetas de la forma larga, como causal y capacidad de influencia o capacidad y comprender el texto que consiste en una más oración.
El desarrollo de herramientas que mejoran estos elementos de IA son pasos clave para hacer de la tecnología una fuente de información confiable, y evitar daños que se puede causar información errónea.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.