¿La inteligencia artificial tiene género?

REDACCION USA TODAY ESPAÑOL
6 Lectura mínima

La inteligencia artificial (IA) suele presentarse como objetiva: datos, estadísticas y predicción. Sin embargo, su visión nace del mundo humano y eso incluye las desigualdades de género.

Un espacio comienza antes del código.

En España, las mujeres son mayoría en las universidades (57% en grados y másteres), pero su presencia cae en los campos STEM más tecnológicos: un 28,1% en ingeniería y arquitectura y un 17,2% en informática. En doctorados, la caída continúa, en línea con el “pipeline perdiendo talento” descrito en el informe de Cientificas en Cifras (2025). Esto enlaza con los datos nacionales sobre la brecha digital de género correspondientes al año 2025, que concentran el desequilibrio precisamente en los campos de la informática y la ingeniería.

El hombre como mecenas científico

En biomedicina, un análisis de cientos de ensayos médicos encontró que aproximadamente dos tercios no informan resultados diferenciados por sexo o no justifican por qué no lo hacen. Un caso paradigmático es el hipnótico zolpidem (Ambien): durante años se comercializó con una sola dosis, hasta que en 2013 se recomendó reducirla a la mitad para las mujeres, cuando se descubrió un riesgo mucho mayor de efectos secundarios. En el conocido ensayo Mujeres invisibles (2019), la periodista y activista británica Caroline Criado-Perez describe este sesgo farmacológico como una brecha sistémica: tratar el patrón masculino como “universal” y el femenino como una desviación “invisible” en los datos.

La IA puede amplificar lo que ya está sesgado

Por supuesto, el fenómeno del sesgo de género no es nuevo: se repite, con matices, en cada avance científico y tecnológico a lo largo de la historia. La tecnología actual no es una excepción. La IA se ha convertido en una auténtica revolución que, más allá de su potencial tecnológico, supone una auténtica fuerza transformadora de la economía y del mercado laboral. En este escenario, el sesgo automatizado no es anecdótico, sino que abarca miles de decisiones.

Las advertencias a menudo procedían de mujeres profesionales. La socióloga estadounidense Safia Umoja Noble ha demostrado cómo los motores de búsqueda aparentemente neutrales pueden producir resultados profundamente racistas y sexistas. El experto informático etíope Timnit Gebru mostró, junto con Joi Buolamwini, graves errores en el reconocimiento facial y advirtió sobre los riesgos de los modelos lingüísticos masivos. Y la científica de datos estadounidense Cathy O’Neill sostiene que muchos modelos actúan como “armas de destrucción matemática” porque convierten las ideas preconcebidas en matemáticas operativas.

¿Por qué es tan importante el lenguaje?

Los sesgos en la IA provienen de cuatro fuentes principales: datos de entrenamiento, decisiones de diseño, interacciones de los usuarios y el proceso de coincidencia con la retroalimentación humana. Esto se ha demostrado empíricamente: por ejemplo, en GPT-3 (OpenAI) se encontró que el término “musulmán” tendía a aparecer asociado con la violencia o el terrorismo en un porcentaje muy alto, lo que refleja los patrones del Internet Corpus: una colección masiva, estructurada y digitalizada de textos, documentos y, a veces, audio, extraídos directamente del análisis digital del mundo y para su uso en el análisis digital del mundo. Entrenamiento de IA.

Ahora bien, si abordamos la conexión entre la inteligencia artificial y el lenguaje, es importante enfatizar que los sesgos discriminatorios también pueden estar implícitos. Las lenguas no son inherentemente sexistas, lo que puede ser sexista es la comunicación: elecciones lingüísticas (conscientes o no) que vuelven a un grupo invisible o degradante.

A veces, incluso sin marcadores gramaticales explícitos, existen marcos conceptuales que guían lo que la gente “infiere” del habla. Según este estudio, esta lógica de inferencia es, de hecho, la misma que “aprende” un traductor automático: cuando el sistema tiene que asignar un género en una traducción, puede terminar eligiéndolo en base a estereotipos sexistas (quién cocina, quién arregla muebles) en lugar de basarse en información real.

La conversación también discrimina

Otro punto crítico son los asistentes de voz. La reiterada selección de voces femeninas para las tareas de cuidado consolida el binomio “mujer-cuidador/hombre-técnico”. Esto podría estar relacionado con la asignación comercial de género: la IA no tiene género, pero se le asigna una personalidad femenina sumisa para adaptarse a las expectativas sociales y maximizar la aceptación.

Más mujeres y más conciencia lingüística

En última instancia, la solución no es sólo incorporar “más datos”, sino desarrollar una perspectiva más diversa y consciente. En general, la inclusión de mujeres y la diversidad en los equipos que diseñan y validan sistemas de IA es un requisito de calidad científica.

Asimismo, desde la lingüística es necesario asumir que el lenguaje crea categorías y activa inferencias: si los corpus muestran a un científico como una excepción, el algoritmo lo normalizará. Por ello, es recomendable revisar el corpus, instrucciones y resultados con pruebas específicas de género, así como revisar los valores “por defecto” (voz, roles) y ampliar la pluralidad de perspectivas en el diseño y la formación.

Quisiéramos expresar nuestro agradecimiento a Marcos García Martí por su valiosa ayuda en la localización y selección de fuentes, así como por su contribución al contenido y redacción de este artículo. Su colaboración fue fundamental para dar coherencia y solidez al trabajo final.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo