DÍA DE LA MUJER

Pedí 50 veces a una IA dos fotos con rostros de deportistas: lo que me encontré, por desgracia, no te sorprenderá

Los sesgos de las imágenes generadas por algoritmos como DALL-E 3 son el producto de toda la desigualdad que hemos cosechado en la historia de Internet.

Los sesgos de género en las imágenes creadas por el modelo de inteligencia artificial DALL-E en la plataforma Image Creator de Microsoft. /RELEVO / FOTOS: IMAGE CREATOR (MICROSOFT)
Los sesgos de género en las imágenes creadas por el modelo de inteligencia artificial DALL-E en la plataforma Image Creator de Microsoft. RELEVO / FOTOS: IMAGE CREATOR (MICROSOFT)
Guillermo Villar

Guillermo Villar

8 de marzo, Día Internacional de la Mujer y, con ello, de las reivindicaciones sociales hacia la igualdad de género. Pero pese al lila que tiñe en esta fecha instituciones y empresas, las desigualdades del resto del año quedan registradas y los avances que miran hacia el futuro traen los fantasmas del pasado y la falta de equidad presente. Los algoritmos de inteligencia artificial, a través de las imágenes y textos que generan, sacan a relucir nuestras vergüenzas almacenadas en nuestra historia, en perjuicio de la mujer.

"A soccer player's face". Bastan estas cuatro palabras para ver el sesgo en la IA cuando le pedimos imágenes de futbolistas. Esta frase que escribimos al algoritmo se llama prompt y es la orden que recibe de nosotros para que nos dé una imagen. Si esta frase se la decimos en español, tenemos que indicar el género ("la cara de un futbolista" o "la cara de una futbolista"). En inglés, no es necesario. Y aquí viene el problema... y el reflejo de un espejo que duele.

Los algoritmos no crean una imagen por arte de magia. "Los modelos de IA aprenden a partir de grandes volúmenes de datos recopilados de Internet y otras fuentes", explica Idoia Salazar, presidenta de OdiseIA, organización que vela por la ética de la inteligencia artificial y su impacto social. "Si hay más datos disponibles sobre futbolistas hombres, el modelo tenderá a generar más imágenes de hombres", especifica. Para María Mont, filósofa investigadora y consultora en este campo, es necesaria la cantidad pero también la calidad de los datos de entrenamiento: "Si las fotos de caras de futbolistas femeninas son de baja resolución, la generación de imágenes puede verse afectada".

Relevo ha repetido la misma orden 50 veces al modelo de IA DALL-E en la plataforma Image Creator de Microsoft, que devuelve dos resultados parecidos por solicitud. De las 100 imágenes analizadas, 22 son caras de mujeres frente a 78 de hombres. Las creaciones, hiperrealistas, ponen sobre la mesa cómo la desigualdad de género también se representa en estos sistemas hasta el más mínimo detalle.

Pedí 50 veces a una IA dos fotos con rostros de deportistas: lo que me encontré, por desgracia, no te sorprenderá

"La inteligencia artificial, en sí misma, no tiene intenciones ni prejuicios", apunta Salazar. "Estos sesgos presentes en los modelos de IA generativa son en gran medida un reflejo de los sesgos existentes en la sociedad", advierte. Como resultado, en palabras de la directiva, "se perpetúa la desigualdad de representación observada en los medios y la cultura popular".

No solo en el fútbol

Hemos repetido el mismo proceso para los otros cuatro deportes más vistos en España según la Encuesta de Hábitos Deportivos de 2022. Tras el fútbol (60,1% de espectadores), el tenis (42,9%), el baloncesto (24,9%) y el automovilismo (20,3%) tienen más seguidores en televisión, radio e internet que ningún otro, pero la IA destapa los sesgos de todos ellos.

Pedí 50 veces a una IA dos fotos con rostros de deportistas: lo que me encontré, por desgracia, no te sorprenderá

En el tenis, la brecha de género es menor. DALL-E devuelve 35 imágenes de mujeres frente al 65 de hombres. "En deportes donde las mujeres han tenido una visibilidad y éxito significativos, como el tenis o la gimnasia, es más probable que la IA genere una distribución más equitativa", explica Salazar.

Pedí 50 veces a una IA dos fotos con rostros de deportistas: lo que me encontré, por desgracia, no te sorprenderá

En baloncesto, las imágenes de mujeres son solo 15 de 100. Entre los pilotos de carreras, ellas solo son ocho. Una desigualdad no solo de género: "Estos datos muchas veces provienen de fuentes que son más accesibles en internet", subraya Salazar, promoviendo los sesgos de esas zonas. "El conjunto de datos va a promover y trabajar mejor con imágenes o textos de culturas históricamente dominantes", resume Mont. Mientras que en tenis no hay rasgos asociados a la población afroamericana, en baloncesto estos predominan. El ranking ATP y la NBA, respectivamente, reflejan estos patrones.

Pedí 50 veces a una IA dos fotos con rostros de deportistas: lo que me encontré, por desgracia, no te sorprenderá

DALL-E no genera el mismo resultado cada vez. La proporción de mujeres en las 100 imágenes generadas puede cambiar, pero la cantidad de la muestra muestra para todos los casos un sesgo de género. Mont aboga por la parte legal como base: "los productos y bienes de consumo están perfectamente controlados por una serie de leyes y normas que regulan su producción, su uso y su consumo. No veo porqué entonces, no sería el caso para la IA". "Es un deber para las empresas que usan o desarrollan IA asumir esta responsabilidad, pero la sociedad también debe asumir su parte y adquirir más conciencia", afirma Salazar. "Esta última cuestión… es la más difícil de resolver", sopesa. Las empresas podrán pedir a la IA que coloree sus logos de morado, pero no que tape, de momento, toda la desigualdad que Internet ha almacenado.

Metodología

Se han analizado 100 imágenes de caras de deportistas para cada uno de los cuatro deportes con más asistencia según la Encuesta de Hábitos Deportivos 2022, las equivalentes a la repetición 50 veces del prompt en inglés escogido. El etiquetado de imágenes como hombres o mujeres se ha hecho en función a los rasgos considerados socialmente a cada una de las expresiones de género. En este sentido, han excluido imágenes como, por ejemplo, las de pilotos cuyo casco ocultaba el rostro como para asociarlos a esta construcción social de género.