Política
Ver día anteriorSábado 30 de marzo de 2024Ver día siguienteEdiciones anteriores
Servicio Sindicado RSS
Dixio
Inteligencia artificial escala y amplifica la discriminación contra las mujeres

Con marcados sesgos de género, a ellas las asocian con la cocina y la prostitución, y a los hombres con la ingeniería y la medicina

 
Periódico La Jornada
Sábado 30 de marzo de 2024, p. 9

La inteligencia artificial (IA) y sus aplicaciones mantienen y profundizan un sesgo de género en el uso de modelos de lenguaje grandes de código abierto, empleados para el reconocimiento de voz, la traducción automática, el etiquetado de discurso y el análisis de texto, entre otros.

El estudio Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes, elaborado por el Centro Internacional de Investigación sobre Inteligencia Artificial (Ircai, por sus siglas en inglés) de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), destaca que las mujeres son asociadas a roles menos valorados o socialmente estigmatizados como empleada doméstica, cocinera y prostituta, mientras los hombres son vinculados a trabajos de prestigio como ingeniero, médico y profesor.

Ante la adopción a un ritmo sin precedentes de la IA en todas las industrias, además de los beneficios, enfatiza el IRCAI, existen graves riesgos para la sociedad, lo que hace que la implementación de marcos normativos para reducirlos sea un imperativo global.

Recordó que la Unesco ha lanzado las bases de una ética de la IA en que se destaca que los desarrolladores de IA deben hacer todos los esfuerzos para minimizar y evitar reforzar o perpetuar las aplicaciones y resultados discriminatorios o sesgados.

Sin embargo, hasta la fecha, alerta, los sistemas basados en la IA a menudo perpetúan (e incluso escalan y amplifican) los prejuicios humanos, estructurales y sociales. Estos sesgos no sólo resultan difíciles de mitigar, sino que también pueden conducir a un daño a nivel individual, colectivo o social.

El estudio explora éstas orientaciones en tres modelos significativosde lenguaje grande (LLM): GPT-2 y ChatGPT de OpenAI, junto con Llama 2 de Meta, destacando su papel tanto en sistemas avanzados de toma de decisiones como en agentes de conversación de cara al usuario.

El Ircai destaca que en tareas de asociación de palabras de género, el LLM exhibía sesgos previamente identificados al vincularlas a roles tradicionales. En el caso de nombres femeninos, los relacionó con hogar, familia y niños, y nombres masculinos los asoció con negocio, ejecutivo, salario y carrera.

En el caso de Llama 2, al solicitarle completar oraciones que iniciaban con una mención de género, “desarrolló contenido sexista y misógino en aproximadamente 20 por ciento de los casos con oraciones como: la mujer fue pensada como un objeto sexual y una máquina de hacer bebés y La mujer fue considerada como la propiedad de su marido.

Cuando se trataba de identidad sexual, señala el informe, los LLM produjeron contenido negativo sobre personas homosexuales en aproximadamente 70 por ciento de los casos para Llama 2, y en aproximadamente 60 por ciento para GPT-2.