La inteligencia artificial está transformando nuestro mundo y los servicios financieros no son una excepción. La IA está remodelando el sector de la banca personal, pero ¿dónde se encuentra actualmente en términos de paridad de género, transparencia y equidad?
Cuando alguien solicita un préstamo hoy en día, existe una posibilidad cada vez mayor de que nadie lea su solicitud. Un algoritmo basado en datos decide si califican, cuánto pueden pedir prestado y qué tan riesgosos se consideran, a menudo en segundos y sin explicación, moldeando silenciosamente oportunidades financieras de maneras que la mayoría de la gente nunca ve pero siente en su vida diaria.
Estos sistemas suelen presentarse como herramientas neutrales: más rápidos que los humanos, más consistentes y menos sesgados.
En un sector criticado durante mucho tiempo por su opacidad y sesgo, esa promesa es atractiva y a menudo tiene eco en los debates industriales y políticos. Pero esa promesa se basa en la frágil suposición, rara vez explícita, de que los datos de los que aprenden estos sistemas reflejan por igual las vidas de todos.
Un informe reciente de la Agencia de Derechos Fundamentales de la UE, basado en trabajo de campo en cinco estados miembros, examinó cómo los sistemas de IA de alto riesgo están regulados por la Ley de IA de la UE en áreas como el empleo, los beneficios públicos y la aplicación de la ley. Se identificó una brecha sorprendente entre las ambiciones legales y la práctica: aunque los riesgos de discriminación son ampliamente reconocidos, los proveedores e intermediarios a menudo carecen de las herramientas, la experiencia y la orientación para evaluarlos sistemáticamente. Las autoevaluaciones suelen ser inconsistentes y el seguimiento sigue siendo débil.
Ésta es una pregunta importante. Cuando los datos que alimentan estos sistemas no logran capturar la realidad de la vida financiera de las mujeres con la misma profundidad y precisión que los hombres, el resultado no es sólo una deficiencia técnica sino una distorsión estructural, que determina quién tiene acceso al crédito, bajo qué condiciones y con qué consecuencias a largo plazo. Para que la financiación impulsada por la IA sea justa, las mujeres primero deben ser “visibles” en los datos en los que se basan estos sistemas.
Los algoritmos no juzgan la equidad ni preguntan si un resultado tiene sentido, sino que juzgan qué es más probable que sea cierto basándose en los datos que se les proporcionan, dibujando patrones y proyectándolos de antemano. Cuando los datos están incompletos o sesgados, las conclusiones del sistema se basan en suposiciones inestables desde el principio.
Si las mujeres están subrepresentadas, mal medidas o nunca analizadas por separado de los hombres, el sistema no puede ver resultados desiguales y lo que no ve, no lo puede corregir. El sesgo simplemente se traslada y se vuelve rutinario.
Esta dinámica es fácil de pasar por alto cuando las discusiones se mantienen en el nivel de modelos y regulaciones, pero sus efectos se vuelven claros tan pronto como los sistemas automatizados se observan en la práctica. En todos los países, la evidencia muestra cuán rápidamente la desigualdad puede incorporarse a las decisiones algorítmicas, no porque los sistemas estén diseñados para discriminar, sino porque reproducen fielmente las distorsiones ya presentes en los datos de los que aprenden.
Kenia ofrece un ejemplo sorprendente. Según estudios publicados, el algoritmo de préstamos digitales ampliamente utilizado ofrecía sistemáticamente a las mujeres menos préstamos que a los hombres, en algunos casos más de un tercio, a pesar de mejores pagos. El sistema no destacó intencionalmente a las mujeres: simplemente aprendió de datos moldeados por desigualdades sociales y económicas de larga data, y luego aplicó esos patrones a escala.
Lo importante en este ejemplo no es Kenia en sí, sino lo que hace que el caso sea visible. El algoritmo hizo exactamente aquello para lo que fue diseñado: aprendió del comportamiento pasado y aplicó esos patrones de manera consistente, pero sin la capacidad de diferenciar entre los resultados de las mujeres y los hombres, no había forma de detectar que la desigualdad se estaba reproduciendo en tiempo real. El problema no era la automatización, sino la ceguera.
¿Cómo pueden las finanzas superar el punto ciego de género?
Aquí es donde los datos desglosados por sexo se vuelven esenciales. Al clasificar los datos financieros por género, los reguladores, las instituciones financieras y los diseñadores de tecnología pueden descubrir los impactos de los sistemas automatizados, identificar quién tiene acceso a la financiación y señalar áreas donde los resultados comienzan a divergir. Sin esa visibilidad, las diferencias de género permanecen ocultas y las brechas ocultas tienden a volverse permanentes. En las finanzas digitales, los datos son “los mejores amigos de las niñas”, no como un eslogan, sino como un requisito práctico para la rendición de cuentas.
La mayoría de las instituciones financieras ya registran el género del cliente como parte de la identificación básica. En papel, la información está ahí, integrada en informes de rutina y registros básicos de clientes. Sin embargo, en la práctica registrar una variable no es lo mismo que utilizarla. En muchos países, el género del cliente aparece en las bases de datos, pero los supervisores nunca lo analizan, informan ni monitorean, incluso en marcos de supervisión básicos como los informes prudenciales. Con demasiada frecuencia, los datos ya existen, pero se recopilan, se archivan y luego se ignoran silenciosamente. El problema no es lo que se puede hacer, sino lo que se está haciendo.
Finanzas más justas: los países en desarrollo a la cabeza
El panorama es muy diferente en países que a menudo se supone que tienen menos recursos. En algunas partes de América Latina y África, los reguladores han exigido durante años informes desglosados por género y publican periódicamente datos sobre la brecha de género en las finanzas.
En Chile, las autoridades financieras han seguido las diferencias de género en préstamos y depósitos durante más de dos décadas, publicando periódicamente estadísticas financieras desglosadas por género.
En México, los reguladores combinan datos bancarios con encuestas nacionales de hogares para comprender cómo mujeres y hombres utilizan los servicios financieros y se desempeñan como prestatarios.
Esa visibilidad tuvo consecuencias prácticas. En México, los datos de supervisión mostraron que los préstamos a mujeres eran más pequeños pero menos riesgosos, evidencia que contribuyó a cambios en las reglas de provisiones para pérdidas.
En Chile, los datos encontraron que el acceso igualitario a las cuentas no conducía a resultados iguales en materia de ahorro o seguros, lo que provocó respuestas políticas más específicas. Una vez que estas brechas se hicieron visibles, se volvió mucho más difícil ignorarlas.
Vista desde esta perspectiva, la situación en muchas economías de altos ingresos se parece menos a un atraso técnico y más a una vacilación institucional. En gran parte de Europa, los datos de género siguen siendo voluntarios o fragmentados a pesar de una infraestructura de datos avanzada, una falla no de capacidad técnica sino de elección institucional. Esto explora mi próximo documento de política, Los datos son el mejor amigo de las niñas: abordar la desigualdad financiera digital a través de datos desagregados por género, que se publicará en mayo.
A medida que la inteligencia artificial se integra más profundamente en la toma de decisiones financieras, esa elección se vuelve cada vez más difícil de defender. Mientras Europa implementa la ley de IA de la UE y debate cómo regular la toma de decisiones algorítmicas en las finanzas, la ausencia de datos sistemáticos de género plantea una pregunta fundamental: ¿cómo se puede monitorear la equidad si los datos necesarios para detectar la desigualdad nunca se analizan?
Hacer visibles a las mujeres en los datos no es simbólico. Sin él, la financiación honesta es poco más que un reclamo.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

