Scroll Top

Los sesgos presentes en los datos utilizados para entrenar a los modelos de IA parecen reflejar los prejuicios y desequilibrios de género existentes en la sociedad

Dall-E-Estereotipos

Francisco-José García-Ull; Mónica Melero-Lázaro

Los resultados que ofrece DALL-E 2 con respecto a profesiones neutras están muy estereotipados ya que, de 37 búsquedas, en 22 el resultado es siempre del mismo género.

El 21,6% de las profesiones se representan completamente estereotipadas con respecto al sexo femenino y el 37,8% con respecto al masculino. Es el caso de profesiones técnicas, científicas, vinculadas a la construcción o a la conducción.

En cuanto a las profesiones vinculadas por la IA a mujeres, encontramos a las empleadas de hogar, modistas y aquellas profesiones en las que es importante la apariencia, como actriz o cantante. En estas dos categorías las imágenes generadas por IA muestran a mujeres jóvenes, occidentales y rubias. Es importante subrayar la alta presencia de mujeres en el sector de la educación y en medicina, especialmente, en enfermería.

También es destacable el hecho de que las imágenes sintéticas generadas con DALL-E 2 presentan a hombres de edad media o avanzada cuando se trata de profesiones vinculadas a una mayor responsabilidad o estatus, como en política, economía y religión. También aquí se observa una mayoría de apariencia occidental.

Si comparamos nuestros resultados con estudios anteriores en los que se consulta a adolescentes, podemos concluir que DALL-E 2 presenta mayor estereotipado de género en el ámbito laboral. Mientras que estudios anteriores en humanos detectan un fuerte estereotipado de género en el 35% de las profesiones, la inteligencia artificial estereotipa completamente en un 59,4% de los casos.

En resumen, se detectan en el presente estudio fuertes sesgos de género en el ámbito laboral en las imágenes generadas mediante inteligencia artificial.

La inteligencia artificial no hace sino reflejar nuestro sentir común, nuestras virtudes y defectos. Si reflexionamos sobre nuestros propios prejuicios y trabajamos, no solo para extrapolar el pasado, sino también para aprender de él de manera crítica, podremos esperar crear tecnologías de IA que sean verdaderamente inclusivas y justas.

Discusión

Se nos plantean, a modo de discusión, dos problemas a resolver en relación con la ética y eficiencia de los generadores automatizados basados en IA:
– En primer lugar, encontramos el sesgo del usuario. Cuando el usuario introduce una consulta, la IA devuelve aquello que se necesita responder, como en una cámara de eco. En este sentido, la respuesta de la IA está implícita en la pregunta que el usuario realiza. Es, por tanto, de extrema complejidad, encontrar respuestas más allá de la cosmogonía del emisor, de su forma de entender la realidad. Esta imposibilidad de encontrar respuestas que trasgredan los límites del conocimiento del usuario es el concepto que hemos convenido a definir como “umbral del espejo”.
– En segundo lugar, dándose el hipotético escenario en el que el usuario es capaz de realizar una consulta libre de cualquier prejuicio y, por tanto, de traspasar el umbral del espejo, se sumergirá en un océano de conocimiento, por naturaleza, sesgado, ya que entraría en juego el umbral del espejo del desarrollador de la tecnología. Si “cada tecnología es una ideología” (Postman, 1991, p. 165), la IA no puede separase de la ideología de sus creadores.

Parece lógico afirmar que el paso crucial hacia una IA más justa e imparcial, reside en la creación y consolidación de una comunidad de desarrollo diversa e inclusiva. Solo así cabe esperar tecnologías que repliquen estos mismos valores

Nuestros hallazgos subrayan la importancia de examinar tanto los estereotipos de la IA como los estereotipos humanos. Si bien los estereotipos son productos de la sociedad y reflejan los prejuicios arraigados, la IA tiene el potencial de amplificar y perpetuar estos sesgos debido a su capacidad para aprender de grandes conjuntos de datos.

Es fundamental abordar este problema desde dos perspectivas complementarias:
– promover la diversidad y equidad en los datos utilizados para entrenar a la IA;
– fomentar una mayor conciencia y reflexión en los seres humanos sobre los estereotipos arraigados que pueden influir en la creación y utilización de la tecnología. El paso crucial hacia una IA más justa e imparcial, reside en la creación y consolidación de una comunidad de desarrollo diversa e inclusiva.

Solo así podremos avanzar hacia sistemas de IA más justos y libres de sesgos que promuevan la igualdad de oportunidades y la inclusión en todas las áreas de nuestra sociedad.

Leer el artículo completo:
García-Ull,   Francisco-José;   Melero-Lázaro,   Mónica   (2023).  “Gender  stereotypes  in  AI-generated  images”. Profesional de la información, v. 32, n. 5, e320505.
https://doi.org/10.3145/epi.2023.sep.05

 

Tomàs Baiget, Editor Jefe
Profesional de la Información / Information Professional
Revista Q1 en Scopus y Q1 en JCR/WoS
Nº 1 mundial en español según Google Scholar Metrics
https://www.directorioexit.info/ficha46
baiget@gmail.com