Internet lleva años funcionando como el principal espejo en el que se mira la sociedad. Sin embargo, el reflejo que devuelve cada vez se corresponde menos con la realidad. Basta con abrir Instagram o TikTok y empezar a deslizar el dedo por la pantalla del … móvil para comprobarlo. Y lo mismo pasa con el resto de internet. Un estudio publicado en ‘Nature’ por investigadores de las universidades estadounidenses de Stanford, Berkeley y de la británica Oxford ha demostrado que las mujeres profesionales aparecen representadas, siempre, como más jóvenes que los hombres en internet, desde Google hasta las plataformas de inteligencia artificial más avanzadas. Y la diferencia de edad es todavía más acusada cuando tienen una profesión prestigiosa con un sueldo elevado.
El estudio no solo demuestra la existencia de un sesgo cultural, también muestra cómo herramientas como ChatGPT están amplificando las desigualdades provocando lo que los autores denominan como ‘edadismo de género’. Algo que puede generar problemas a las mujeres reales en el mundo laboral. Sobre todo si tienen una edad avanzada. Porque, de acuerdo con la investigación, incluso la herramienta de IA de OpenAI valora mejor a los candidatos masculinos a un puesto que a las mujeres. Y todo por razones de edad aparente.
«Cuando las mujeres aparecen en la red como más jóvenes que los hombres, incluso en los mismos trabajos, se tiende a asociarlas con cualidades que no encajan con los roles de liderazgo. Por eso es llamativo que esta diferencia de edad percibida sea mayor en los puestos mejor pagados y de mayor estatus, los más influyentes en la sociedad. También es preocupante que, según nuestro estudio, ChatGPT asuma que las mujeres son más jóvenes y tienen menos experiencia, mientras que los hombres mayores reciben las puntuaciones más altas«, explica a ABC Douglas Guilbeault, investigador de la Universidad de Stanford y autor principal del estudio.
Para llevar a cabo la investigación, Guilbeault y sus colegas analizaron 1,4 millones de imágenes y vídeos procedentes de Google, Wikipedia, IMDb, Flickr y YouTube, con el objetivo de determinar las edades promedio de mujeres y hombres en los mismos oficios. Los resultados fueron claros: las mujeres eran siempre más jóvenes. Sin embargo, al comparar esos datos con el censo laboral de Estados Unidos, los investigadores comprobaron que en la realidad no existe tal diferencia, lo que confirma que se trata de una distorsión en la representación online.
Por ejemplo, en las búsquedas de Google Imágenes, los doctores y banqueros varones solían tener entre 25 y 34 años, mientras que las mujeres que tenían estas profesiones parecían encontrarse entre los 18 y 24. En oficios centrados en la atención y el cuidado, como la enfermería o enseñanza, las mujeres estaban entre finales de la adolescencia o los veintitantos. En los sectores de servicios, como recepcionistas o dependientas, las mujeres también se concentraban en el rango de 18 a 24 años, mientras que sus pares masculinos se representaban en franjas superiores, generalmente entre los 25 y 34.
En Wikipedia, IMDb y Flickr se repitió el mismo patrón, y hasta en bases de datos creadas para entrenar algoritmos las mujeres eran clasificadas como varios años más jóvenes. De acuerdo con los investigadores, todo indica que el sesgo tiene un efecto global. No se trata de un fenómeno exclusivo de Estados Unidos, que es donde se llevó a cabo la investigación. «Este se replica al buscar desde Bangalore, Toronto, Singapur, Frankfurt y Ámsterdam. Si bien no tenemos grandes cantidades de datos sobre otras culturas, nuestros conjuntos de datos representan una muestra significativamente grande de todo internet», dice el investigador de la Universidad de Stanford.
Para calcular la edad de las personas que aparecen en las imágenes, los investigadores usaron dos métodos. Por un lado, equipos humanos clasificaron las imágenes según rangos de edad y algoritmos de inteligencia artificial que analizaban los rasgos faciales. Ambos mostraron lo mismo: las mujeres parecían ser entre 0,2 y 5 años más jóvenes que los hombres. Este patrón también se vio en fotos de celebridades y en vídeos de YouTube, donde el 33% de las mujeres fueron clasificadas como «jóvenes» frente al 20% de los hombres. Incluso los modelos de lenguaje asociaban «mujer» con juventud y «hombre» con madurez, demostrando que no se trata solo de un problema de percepción humana.
En un experimento posterior con 459 personas, las mujeres fueron percibidas como 5,5 años más jóvenes que los hombres en los mismos oficios. Esta diferencia llevó a que los participantes mostrasen mayor disposición a contratar a hombres de más edad, valorados como experimentados, y a mujeres jóvenes, mientras que las mujeres mayores acabaron siendo penalizadas debido a razones de edad y apariencia.
Los sesgos de ChatGPT
El estudio analizó, además, si ChatGPT muestra sesgos de género y edad al generar y evaluar currículums, y los resultados confirmaron que sí. Los investigadores pidieron a la herramienta crear 40.000 currículums para 54 profesiones usando nombres masculinos y femeninos con una edad y un origen similares. Descubrieron que, cuando el nombre era femenino, ChatGPT solía generar perfiles de personas más jóvenes, con menos experiencia laboral y fechas de graduación más recientes que los de los hombres. Además, al calificar los currículums, ChatGPT otorgó mejores puntuaciones a los candidatos mayores, especialmente a los hombres.
Esto demuestra que la IA está amplificando los sesgos con los que ha sido entrenada. Y el problema tiene difícil solución, según explica Guilbeault: «Mientras estos modelos dependan de grandes cantidades de datos humanos, estarán condenados a aprender y reforzar muchos de los sesgos, estereotipos y distorsiones masivas».
Un problema difícil de arreglar
Estos hallazgos evidencian lo que los autores llaman «edadismo de género»: la discriminación hacia mujeres mayores por razones de edad y sexo. De acuerdo con el estudio, este sesgo puede limitar las oportunidades de promoción y liderazgo para las mujeres. En lo cultural, refuerza una imagen desequilibrada de los géneros.
Para Guilbeault, el problema «tiene raíces profundas» y «se ve amplificado por internet, un ecosistema que facilita la difusión de representaciones sesgadas» y, ahora, también por la inteligencia artificial generativa: «Debe reconocerse que no es un problema fácil de resolver, y creo que las empresas de IA están intentando minimizar estos problemas. Dicho esto, su retórica debería reconocer de manera más responsable lo lejos que estamos de resolver este problema, lo que significaría aceptar (inconvenientemente) que sus modelos probablemente seguirán reproduciendo problemas de este tipo a gran escala en el futuro».