Capacitados para tratar al ‘hombre blanco estándar’: inteligencia artificial y sesgo de género en la salud

REDACCION USA TODAY ESPAÑOL
4 Lectura mínima

La integración de la inteligencia artificial (IA) en la práctica clínica a través de herramientas de diagnóstico y pronóstico ofrece una oportunidad sin precedentes para mejorar la salud. Sin embargo, es necesario asegurarse de que sus algoritmos se desarrollen de la manera correcta.

Porque, como advierte la Organización Mundial de la Salud, la IA puede reproducir y reforzar sesgos preexistentes en los datos y los equipos de desarrollo. Es un nuevo riesgo epidemiológico. Un ejemplo paradigmático se ve en los algoritmos de gestión de la atención sanitaria con prejuicios raciales, que subestiman las necesidades de las poblaciones minoritarias.

Si los algoritmos epidemiológicos son diseñados por equipos homogéneos, se corre el riesgo de exacerbar las desigualdades. Y eso se traduce en una gestión injusta de los recursos.

Invisibilidad de los datos

Uno de los principales desafíos radica en los datos históricos de entrenamiento. Es una práctica generalizada en el ámbito sanitario utilizar el “hombre blanco estándar” como perfil clínico de referencia. Este enfoque invisibiliza sistemáticamente los síntomas, las necesidades y las peculiaridades fisiológicas de las mujeres.

Cuando un algoritmo se entrena con datos no representativos, su capacidad de predicción es menos precisa para los grupos subrepresentados. Las investigaciones revelan que hasta el 31% de los estudios sobre IA en la salud omiten el género en sus conjuntos de datos. Esta invisibilidad distorsiona la planificación de políticas de salud y estrategias de prevención y tratamiento.

Es un fenómeno que va más allá de la salud. Los modelos de lenguaje grande (LLM) tienden a asociar una mayor responsabilidad en la crianza y el cuidado de las mujeres. Este sesgo, aprendido de un corpus de texto, refleja las normas sociales tradicionales y afecta la igualdad en el equilibrio entre la vida laboral y personal.

Impacto con múltiples consecuencias

El sesgo algorítmico de género es un desafío que afecta a diferentes ámbitos:

Implicaciones para la epidemiología y la salud pública

Desde la salud pública, el sesgo de género en la IA presenta los siguientes desafíos estructurales:

Vigilancia epidemiológica comprometida: los sistemas de vigilancia basados ​​en inteligencia artificial pueden generar estimaciones sesgadas de prevalencia e incidencia en las mujeres si los algoritmos se entrenan con datos no representativos.

Desigualdad en los recursos de salud: Los algoritmos que predicen el riesgo de hospitalización pueden subestimar las necesidades de las mujeres, lo que resulta en un menor acceso a cuidados intensivos y perpetúa las desigualdades en la distribución de los recursos.

Ineficacia preventiva: los modelos de estratificación del riesgo pueden no identificar a las mujeres vulnerables en el cribado del cáncer o en la prevención cardiovascular, dejando a una parte de la población desprotegida.

Mantener los determinantes sociales: el sesgo en los sistemas de IA aplicados al empleo o las finanzas perpetúa la inseguridad laboral y la pobreza, factores de riesgo bien establecidos para desarrollar enfermedades crónicas.

Erosión de la confianza: los diagnósticos menos precisos y los retrasos en la atención erosionan la confianza de las mujeres en el sistema de salud, con consecuencias directas para la adherencia al tratamiento y la participación en los programas de salud pública.

En resumen, la IA tiene un gran potencial para transformar la salud, pero su desarrollo debe ser inclusivo y basarse en evidencia epidemiológica para no perpetuar la desigualdad. En términos de salud pública, tenemos la responsabilidad de liderar el desarrollo tecnológico para reducir, no ampliar, la brecha de género.

Artículo escrito con el asesoramiento de la Sociedad Española de Epidemiología.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo