La inteligencia artificial no es neutral: los sesgos de género y edad se amplifican en los algoritmos

a picture showing an employee bringing a coffee to a senior boss


Fíjate en la imagen de portada. Ha sido generada con IA. El prompt fue:

a picture showing an employee bringing a coffee to a senior boss

Esto es básicamente lo que refleja un preocupante estudio publicado en Nature sobre los sesgos de género y edad en la inteligencia artificial.

El trabajo ofrece la primera evidencia a gran escala de que el sesgo de género relacionado con la edad es una distorsión generalizada, presente tanto en contenido visual digital (imágenes y vídeos) como en nueve modelos de lenguaje (entre ellos ChatGPT), y que además es sistemáticamente amplificada por los algoritmos.

El análisis se basa en 1,4 millones de imágenes de cinco plataformas (Google, Wikipedia, IMDb, Flickr y YouTube), y en nueve modelos de lenguaje, entre ellos ChatGPT, entrenados con textos de Reddit, Google News, Wikipedia y Twitter.

Los resultados muestran un sesgo algorítmico generalizado: las mujeres tienden a ser representadas como más jóvenes y menos experimentadas que los hombres. Este patrón se acentúa en profesiones de alto estatus, lo que puede influir en percepciones y decisiones laborales, afectando especialmente a mujeres mayores.

En Europa, y en España en particular, estos hallazgos son clave, ya que dependemos de plataformas y modelos internacionales que pueden reproducir y amplificar estos estereotipos en nuestro entorno digital y profesional.
Creo que este tipo de investigaciones refuerzan la necesidad de:

  • Auditar los algoritmos y exigir transparencia en los sistemas de IA.
  • Promover una educación digital crítica desde edades tempranas.
  • Aplicar el Reglamento Europeo de Inteligencia Artificial (RIA) para garantizar un uso ético, seguro y no discriminatorio.

La IA no es neutral. Cuanto antes reconozcamos sus sesgos, antes podremos construir una inteligencia artificial más justa, inclusiva y responsable.