La decisión de Matt de poner fin a su programa profesional de verificación de datos provocó una ola de críticas en el mundo de la tecnología y los medios. Los críticos han advertido que renunciar a la revisión por pares podría erosionar la confianza y la confiabilidad en el entorno de la información digital, especialmente cuando se deja que las plataformas con fines de lucro se las arreglen solas.
Los estudios demuestran que los grandes modelos lingüísticos hacen más que simplemente transmitir información. Sus respuestas pueden resaltar sutilmente ciertos puntos de vista y minimizar otros, a menudo sin que los usuarios se den cuenta.
Sesgo en la comunicación
Mi colega, el informático Stefan Schmid, y yo, experto en derecho y política tecnológica, mostramos en un artículo de próxima aparición en la revista Communications of the ACM que los grandes modelos lingüísticos presentan un sesgo de comunicación. Hemos descubierto que pueden tender a enfatizar ciertas perspectivas y dejar de lado o restar importancia a otras. Este sesgo puede afectar la forma en que piensan o sienten los usuarios, independientemente de si la información presentada es verdadera o falsa.
La investigación empírica de los últimos años ha producido conjuntos de datos de referencia que correlacionan los resultados del modelo con las posiciones de los partidos antes y durante las elecciones. Revelan variaciones en la forma en que los principales modelos lingüísticos actuales abordan el contenido público. Dependiendo de la personalidad o el contexto utilizado para impulsar los grandes modelos lingüísticos, los modelos actuales se inclinan sutilmente hacia ciertas posiciones, incluso cuando la precisión fáctica permanece intacta.
Estos cambios indican una nueva forma de gestión basada en la personalidad: la tendencia del modelo a hacer coincidir su tono y énfasis con las expectativas percibidas del usuario. Por ejemplo, cuando un usuario se describe a sí mismo como un activista medioambiental y otro como propietario de una empresa, el modelo puede responder a la misma pregunta sobre la nueva legislación climática destacando preocupaciones diferentes pero objetivamente precisas para cada uno. Por ejemplo, las críticas podrían ser que la ley no va lo suficientemente lejos en la promoción de beneficios ambientales y que impone cargas regulatorias y costos de cumplimiento.
Esta alineación puede fácilmente malinterpretarse como adulación. El fenómeno se llama mezquindad: los modelos efectivamente dicen a los usuarios lo que quieren escuchar. Pero si bien la hipocresía es un síntoma de las interacciones entre el usuario y el modelo, el sesgo en la comunicación es más profundo. Esto refleja diferencias en quién diseña y construye estos sistemas, de qué conjuntos de datos se basan y qué incentivos impulsan su perfeccionamiento. Cuando un puñado de desarrolladores domina un gran mercado de modelos de lenguaje y sus sistemas representan consistentemente algunos puntos de vista más favorablemente que otros, pequeñas diferencias en el comportamiento del modelo pueden convertirse en distorsiones significativas en la comunicación pública.
El sesgo en los modelos de lenguaje grandes comienza con los datos con los que están entrenados. ¿Qué puede y qué no puede hacer la regulación?
La sociedad contemporánea depende cada vez más de grandes modelos lingüísticos como interfaz principal entre las personas y la información. Los gobiernos de todo el mundo han lanzado políticas para abordar las preocupaciones sobre el sesgo de la IA. Por ejemplo, la Ley de Inteligencia Artificial y la Ley de Servicios Digitales de la Unión Europea intentan imponer la transparencia y la rendición de cuentas. Pero ninguno de ellos está diseñado para abordar el problema matizado del sesgo de comunicación en los resultados de la IA.
Los defensores de la regulación de la IA a menudo citan la IA neutral como un objetivo, pero la verdadera neutralidad suele ser difícil de alcanzar. Los sistemas de inteligencia artificial reflejan sesgos integrados en sus datos, capacitación y diseño, y los intentos de regular dichos sesgos a menudo terminan cambiando un tipo de sesgo por otro.
Y el sesgo en la comunicación no es sólo precisión: también es generación de contenido y encuadre. Imagínese hacerle una pregunta a un sistema de inteligencia artificial sobre una ley controvertida. La respuesta de un modelo está determinada no sólo por los hechos, sino también por la forma en que se presentan esos hechos, qué fuentes se destacan y el tono y punto de vista que adopta.
Esto significa que la raíz del problema del sesgo radica no sólo en abordar datos de capacitación sesgados o resultados sesgados, sino también en las estructuras de mercado que dan forma al diseño de la tecnología en primer lugar. Cuando sólo unos pocos modelos lingüísticos grandes tienen acceso a la información, aumenta el riesgo de sesgo en la comunicación. Más allá de la regulación, entonces, mitigar efectivamente el sesgo requiere preservar la competencia, la responsabilidad liderada por los usuarios y la apertura regulatoria a diferentes formas de construir y ofrecer grandes modelos lingüísticos.
Hasta ahora, la mayoría de las regulaciones tienen como objetivo prohibir las salidas dañinas después de que se implemente la tecnología u obligar a las empresas a realizar auditorías previas al lanzamiento. Nuestro análisis muestra que, si bien las comprobaciones previas al lanzamiento y el seguimiento posterior a la implementación pueden detectar los errores más evidentes, pueden ser menos eficaces para abordar el sesgo de comunicación sutil que surge a través de las interacciones de los usuarios.
Más allá de la regulación de la IA
Es tentador esperar que la regulación pueda eliminar todos los sesgos en los sistemas de inteligencia artificial. En algunos casos, estas políticas pueden ser útiles, pero normalmente no abordan la cuestión más profunda: los incentivos que determinan las tecnologías que comunican información al público.
Nuestros hallazgos dejan claro que una solución más duradera radica en fomentar la competencia, la transparencia y la participación significativa de los usuarios, permitiendo a los consumidores desempeñar un papel activo en la forma en que las empresas diseñan, prueban e implementan modelos lingüísticos a gran escala.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

