La IA perpetúa los ideales corporales poco realistas, la cosificación y la falta de diversidad, especialmente para los atletas

REDACCION USA TODAY ESPAÑOL
8 Lectura mínima

¿Cómo se ve tener un “cuerpo atlético”? ¿Cómo cree una IA que parece que lo tiene?

Un estudio reciente que realizamos en la Universidad de Toronto analizó características relacionadas con la apariencia de imágenes de atletas y no atletas masculinos y femeninos generadas por inteligencia artificial. Nos encontramos alimentándonos de estándares corporales exagerados, y posiblemente imposibles.

Incluso antes de la inteligencia artificial, se presionaba a los atletas para que tuvieran un aspecto determinado: delgados, musculosos y atractivos. Los entrenadores, los oponentes, los espectadores y los medios de comunicación dan forma a lo que los atletas sienten acerca de sus cuerpos.

Pero estas presiones e ideales corporales tienen poco que ver con el desempeño; están relacionados con la cosificación del cuerpo. Y, lamentablemente, este fenómeno está asociado con una imagen corporal negativa, una mala salud mental y un rendimiento reducido relacionado con los deportes.

Dado el uso cada vez mayor de la inteligencia artificial en las redes sociales, comprender cómo la IA retrata los cuerpos de atletas y no atletas se ha vuelto fundamental. Lo que se muestra, o no, como “normal” es ampliamente visto y pronto puede normalizarse.

Delgado, joven, musculoso y mayoritariamente masculino.

Como investigadores con experiencia en imagen corporal, psicología del deporte y redes sociales, basamos nuestro estudio en teorías de la cosificación y las redes sociales. Creamos 300 imágenes utilizando diferentes plataformas de inteligencia artificial para investigar cómo se representaban los cuerpos de atletas y no atletas masculinos y femeninos.

Documentamos la demografía, los niveles de grasa corporal y la musculatura. Evaluamos el ajuste y el tipo de ropa, el atractivo facial, como el cabello limpio y brillante, los rasgos simétricos o la exposición limpia de la piel y el cuerpo en cada imagen. También se registraron indicadores de discapacidades visibles, como dispositivos de movilidad. Comparamos las características de las imágenes de hombres y mujeres, así como las características de las imágenes de deportistas y no deportistas.

Las imágenes de hombres generadas por IA eran a menudo jóvenes (93,3 por ciento), delgados (68,4 por ciento) y musculosos (54,2 por ciento). Las imágenes de mujeres representan juventud (100 por ciento), delgadez (87,5 por ciento) y ropa reveladora (87,5 por ciento).

Las imágenes de los atletas generadas por IA eran delgadas (98,4 por ciento), musculosas (93,4 por ciento) y vestían ropa de entrenamiento ajustada (92,5 por ciento) y reveladora (100 por ciento).

Imagen de un atleta masculino creada por MidJourney a partir de la investigación del autor. (Delaney Thibodeau)

Los no deportistas aparecen representados con ropa más holgada y tamaños corporales más variados. Incluso cuando buscamos una imagen de simplemente un “atleta”, el 90 por ciento de las imágenes generadas eran de hombres. Ninguna de las imágenes mostraba discapacidades visibles, cuerpos más grandes, arrugas o calvicie.

Estos resultados revelan que la IA generativa perpetúa los estereotipos de los atletas, retratándolos sólo como si encajaran en un conjunto limitado de rasgos: intactos, atractivos, delgados, musculosos, expuestos.

Los hallazgos de esta investigación ilustran las formas en que tres plataformas de IA generativa comúnmente utilizadas (DALL-E, MidJourney y Stable Diffusion) refuerzan ideales de apariencia problemáticos para todos los géneros, atletas y no atletas por igual.

Los costos reales de los ideales corporales distorsionados

¿Por qué es esto un problema?

Más de 4.600 millones de personas utilizan las redes sociales y el 71 por ciento de las imágenes de las redes sociales son generadas por inteligencia artificial. Hay mucha gente que mira constantemente imágenes que fomentan la autoobjetivación y la internalización de ideales corporales poco realistas.

Entonces pueden sentirse obligados a hacer dieta y hacer demasiado ejercicio porque se sienten mal consigo mismos: sus cuerpos no se parecen a las imágenes generadas por la IA. Alternativamente, también pueden hacer menos actividad física o abandonar el deporte por completo.

Una imagen corporal negativa no sólo afecta al rendimiento académico de los jóvenes, sino también al rendimiento deportivo. Si bien mantenerse activo puede promover una mejor imagen corporal, una imagen corporal negativa hace exactamente lo contrario. Exacerba el abandono y la evitación.

Un hombre blanco muy musculoso.

Otra imagen de un atleta masculino generada por la IA de MidJourney a partir de la investigación del autor. (Delaney Thibodeau)

Dado que aproximadamente el 27 por ciento de los canadienses mayores de 15 años tienen al menos una discapacidad, también llama la atención el hecho de que ninguna de las imágenes generadas incluyera a alguien con una discapacidad visible. Además de no mostrar discapacidades cuando genera imágenes, también se ha informado que la IA borra discapacidades de imágenes de personas reales.

Las personas con grasa corporal, arrugas o calvicie también estuvieron en gran medida ausentes.

Abordar el sesgo en la próxima generación de IA

Estos patrones revelan que la IA no es realista ni creativa en sus representaciones. Más bien, se extrae de la vasta base de datos de medios disponibles en línea, dominados por los mismos ideales de apariencia nociva. Es reciclar nuestros prejuicios y formas de discriminación y devolvérnoslos.

La IA aprende los ideales corporales de la misma sociedad parcial que durante mucho tiempo ha fomentado la presión sobre la imagen corporal. Esto conduce a una falta de diversidad y a un vórtice de estándares inalcanzables. Las imágenes generadas por IA presentan cuerpos exagerados e idealizados que, en última instancia, limitan la diversidad de las personas, y la resultante menor satisfacción con la imagen corporal está relacionada con una mayor soledad.

Y así, como creadores originales del contenido visual que entrena los sistemas de IA, la sociedad tiene la responsabilidad de garantizar que estas tecnologías no perpetúen la misoginia, el racismo, la gordofobia y la discriminación por edad. Los usuarios de IA generativa deben ser intencionales en la forma en que escriben consultas de imágenes y críticos en cómo las interpretan.

Necesitamos limitar el tipo de estándares corporales que internalizamos a través de la IA. A medida que las imágenes generadas por IA continúan poblando nuestro panorama mediático, debemos ser conscientes de nuestra exposición a ellas. Porque, en última instancia, si queremos que la IA refleje la realidad, no la distorsione, debemos insistir en ver y apreciar todo tipo de cuerpo.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo