Voces Feministas
  • Noticias
    • Chiapas
    • México
    • Mundo
  • Alerta de Género
  • Disidencia Sexual
  • Salud
  • Violencia Política
    • Elecciones
  • Opinión
No Result
View All Result
martes, diciembre 30, 2025
Voces Feministas
  • Noticias
    • Chiapas
    • México
    • Mundo
  • Alerta de Género
  • Disidencia Sexual
  • Salud
  • Violencia Política
    • Elecciones
  • Opinión
No Result
View All Result
Voces Feministas

El sexismo en los algoritmos

por Olimpia y Simone
21/07/2020
in Mundo
A A
Visibilización del feminismo en las Redes Sociales: retos, riesgos y aprendizajes
Compartir en FacebookCompartir en TwitterCompartir en Pinterest


IBM predice que solo la inteligencia artificial que esté libre de sesgos sobrevivirá

Naroa Martinez y Helena Matute (The Conversation / El País).- A pesar del auge del feminismo en los últimos años, los efectos negativos y generalizados del sexismo en la inteligencia artificial suelen ser subestimados.

Lejos de ser minoritario, el sexismo, y la discriminación que este genera, impregna hoy en día el funcionamiento de los algoritmos de inteligencia artificial. Esto es un problema porque cada vez usamos más algoritmos para tomar decisiones cruciales sobre nuestras vidas. Por ejemplo, quién puede acceder y quién no a una entrevista de trabajo o a una hipoteca.

Sexismo en los algoritmos

La literatura científica que estudia la presencia de sesgos y errores en los algoritmos de aprendizaje automático está todavía en sus primeras etapas, pero los resultados son muy preocupantes.

Se ha comprobado que los algoritmos heredan los sesgos de género que imperan en nuestra sociedad. Como veremos a continuación, los sesgos humanos llevan a errores sistemáticos en los algoritmos. Es más, a menudo estos sesgos tienden a incrementarse debido a la gran cantidad de datos que manejan los algoritmos y a su uso generalizado.

Por ejemplo, en un estudio en el que se aplicaron técnicas de aprendizaje automático para entrenar a una inteligencia artificial utilizando Google News, se resolvió la analogía “hombre es a programador de ordenadores lo que mujer es a x”. La respuesta automática fue que “x = ama de casa”.

De manera similar, otro hallazgo inquietante fue el que se observó en un algoritmo entrenado con texto tomado de Internet. Este asociaba nombres femeninos como Sarah con palabras atribuidas a la familia, tales como padres y boda. En cambio, nombres masculinos como John tenían asociaciones más fuertes con palabras atribuidas al trabajo, como profesional y salario.

Amazon también tuvo que eliminar su algoritmo de selección de personal porque mostraba un fuerte sesgo de género, penalizando los CV que contenían la palabra mujer.

El sexismo también se cuela en los algoritmos de búsqueda de imágenes. Por ejemplo, una investigación mostró que en Bing se recuperan fotos de mujeres más a menudo al utilizar en las búsquedas palabras con rasgos cálidos, como por ejemplo, sensible o emocional. Por el contrario, palabras con rasgos de competencia, tales como inteligente o racional, están más representados por fotos de hombres. Es más, al buscar la palabra persona se recuperan más a menudo fotos de hombres que de mujeres.

En otro trabajo se observó que el algoritmo asociaba imágenes de compras y cocinas con mujeres. Así, deducía que “si está en la cocina, es mujer” la mayor parte de las veces. En cambio, asociaba imágenes de entrenamiento físico con hombres.

Además de los datos de texto y las imágenes, las entradas e interacciones que realizan los usuarios también refuerzan y nutren el aprendizaje de sesgos de los algoritmos. Un ejemplo de ello lo confirmó un trabajo en el que se observaba que los temas relacionados con la familia y las relaciones románticas se discuten mucho más frecuentemente en los artículos de Wikipedia sobre las mujeres que sobre los hombres. Además, las biografías de mujeres tienden a estar más vinculadas (mediante enlaces) a la de los hombres que viceversa.

Sesgo algorítmico en lenguas con género

Los estudios que se han centrado en examinar el sesgo de género lo han hecho casi exclusivamente analizando el funcionamiento de los algoritmos con el idioma inglés. Sin embargo, esta lengua no tiene género gramatical.

En inglés, la maestra simpática y el maestro simpático se dice igual: the nice teacher. Por tanto, cabe preguntarse qué ocurre con lenguas como el español, que sí tiene género gramatical.

La investigación al respecto ha encontrado sesgos de género al traducir del inglés a idiomas con género gramatical como el nuestro. Por ejemplo, un estudio mostró que al traducir la palabra lawyer del inglés al español había una asociación automática más fuerte con la palabra abogado que abogada. Por el contrario, la palabra nurse estaba más relacionada con la palabra enfermera que enfermero. En principio tendría que haber asociado ambas traducciones con idéntica probabilidad.

A pesar de las numerosas críticas de los últimos años, los sesgos que se producen al traducir desde una lengua sin género gramatical, como el inglés, a una con género gramatical, como el español, se siguen dando hoy en día en algunos traductores automáticos como, por ejemplo, DeepL (ver Figura 1).

Captura de pantalla del algoritmo DeepL que muestra sesgo de género (14-05-2020).Captura de pantalla del algoritmo DeepL que muestra sesgo de género (14-05-2020).

 

Algunos traductores como Google Translate han introducido correcciones. Hoy en día traducen con el masculino genérico un conjunto de palabras (ver Figura 2), pero han incorporado también el desdoblamiento por género femenino y masculino de palabras e incluso frases cortas (ver Figura 3).

 

Captura de pantalla de Google Translate que muestra masculino genérico en la traducción de un listado de palabras (14-05-2020).Captura de pantalla de Google Translate que muestra masculino genérico en la traducción de un listado de palabras (14-05-2020).

 

Captura de pantalla de Google Translate que muestra desdoblamiento de género femenino y masculino en la traducción de una palabra (14-05-2020).Captura de pantalla de Google Translate que muestra desdoblamiento de género femenino y masculino en la traducción de una palabra (14-05-2020).

¿Qué solución tiene?

En la actualidad, se están desarrollando iniciativas y estándares destinados a abordar el problema de los sesgos algorítmicos. Pero, por el momento, la mayor parte de los sistemas de inteligencia artificial presenta sesgos.

La investigación sugiere que subestimamos los sesgos presentes en las máquinas e incluso tendemos a considerar más justas y preferir las recomendaciones de los algoritmos a las de los humanos. Pero, ¿realmente queremos delegar nuestras decisiones en algoritmos que asocian mujer con ama de casa? IBM predice que “solo la inteligencia artificial que esté libre de sesgos sobrevivirá”.

 

Naroa Martinez es investigadora Posdoctoral, Universidad de Deusto y Helena Matute es catedrática de Psicología en la misma universidad.

 

*Este artículo fue publicado originalmente en The Conversation.

Publicaciones relacionadas

Lanzarán un canal exclusivo para el deporte femenino de todo el mundo

Lanzarán un canal exclusivo para el deporte femenino de todo el mundo

12/11/2024
’Condenadas en Gaza’, un documental sobre palestinas enfermas sin acceso al tratamiento necesario

Gaza: Alertan abusos a mujeres palestinas y mortal hambruna infantil

20/02/2024
Presidente de Argentina enviará al Congreso un proyecto de ley sobre la legalización del aborto

Argentina: El partido en el poder presenta proyecto para derogar el derecho al aborto

19/02/2024
Jeffrey Epstein: documental que revela la red de trafico sexual de adolescentes

Caso Epstein: Doce víctimas denuncian al FBI por inoperancia

19/02/2024


IBM predice que solo la inteligencia artificial que esté libre de sesgos sobrevivirá

Naroa Martinez y Helena Matute (The Conversation / El País).- A pesar del auge del feminismo en los últimos años, los efectos negativos y generalizados del sexismo en la inteligencia artificial suelen ser subestimados.

Lejos de ser minoritario, el sexismo, y la discriminación que este genera, impregna hoy en día el funcionamiento de los algoritmos de inteligencia artificial. Esto es un problema porque cada vez usamos más algoritmos para tomar decisiones cruciales sobre nuestras vidas. Por ejemplo, quién puede acceder y quién no a una entrevista de trabajo o a una hipoteca.

Sexismo en los algoritmos

La literatura científica que estudia la presencia de sesgos y errores en los algoritmos de aprendizaje automático está todavía en sus primeras etapas, pero los resultados son muy preocupantes.

Se ha comprobado que los algoritmos heredan los sesgos de género que imperan en nuestra sociedad. Como veremos a continuación, los sesgos humanos llevan a errores sistemáticos en los algoritmos. Es más, a menudo estos sesgos tienden a incrementarse debido a la gran cantidad de datos que manejan los algoritmos y a su uso generalizado.

Por ejemplo, en un estudio en el que se aplicaron técnicas de aprendizaje automático para entrenar a una inteligencia artificial utilizando Google News, se resolvió la analogía “hombre es a programador de ordenadores lo que mujer es a x”. La respuesta automática fue que “x = ama de casa”.

De manera similar, otro hallazgo inquietante fue el que se observó en un algoritmo entrenado con texto tomado de Internet. Este asociaba nombres femeninos como Sarah con palabras atribuidas a la familia, tales como padres y boda. En cambio, nombres masculinos como John tenían asociaciones más fuertes con palabras atribuidas al trabajo, como profesional y salario.

Amazon también tuvo que eliminar su algoritmo de selección de personal porque mostraba un fuerte sesgo de género, penalizando los CV que contenían la palabra mujer.

El sexismo también se cuela en los algoritmos de búsqueda de imágenes. Por ejemplo, una investigación mostró que en Bing se recuperan fotos de mujeres más a menudo al utilizar en las búsquedas palabras con rasgos cálidos, como por ejemplo, sensible o emocional. Por el contrario, palabras con rasgos de competencia, tales como inteligente o racional, están más representados por fotos de hombres. Es más, al buscar la palabra persona se recuperan más a menudo fotos de hombres que de mujeres.

En otro trabajo se observó que el algoritmo asociaba imágenes de compras y cocinas con mujeres. Así, deducía que “si está en la cocina, es mujer” la mayor parte de las veces. En cambio, asociaba imágenes de entrenamiento físico con hombres.

Además de los datos de texto y las imágenes, las entradas e interacciones que realizan los usuarios también refuerzan y nutren el aprendizaje de sesgos de los algoritmos. Un ejemplo de ello lo confirmó un trabajo en el que se observaba que los temas relacionados con la familia y las relaciones románticas se discuten mucho más frecuentemente en los artículos de Wikipedia sobre las mujeres que sobre los hombres. Además, las biografías de mujeres tienden a estar más vinculadas (mediante enlaces) a la de los hombres que viceversa.

Sesgo algorítmico en lenguas con género

Los estudios que se han centrado en examinar el sesgo de género lo han hecho casi exclusivamente analizando el funcionamiento de los algoritmos con el idioma inglés. Sin embargo, esta lengua no tiene género gramatical.

En inglés, la maestra simpática y el maestro simpático se dice igual: the nice teacher. Por tanto, cabe preguntarse qué ocurre con lenguas como el español, que sí tiene género gramatical.

La investigación al respecto ha encontrado sesgos de género al traducir del inglés a idiomas con género gramatical como el nuestro. Por ejemplo, un estudio mostró que al traducir la palabra lawyer del inglés al español había una asociación automática más fuerte con la palabra abogado que abogada. Por el contrario, la palabra nurse estaba más relacionada con la palabra enfermera que enfermero. En principio tendría que haber asociado ambas traducciones con idéntica probabilidad.

A pesar de las numerosas críticas de los últimos años, los sesgos que se producen al traducir desde una lengua sin género gramatical, como el inglés, a una con género gramatical, como el español, se siguen dando hoy en día en algunos traductores automáticos como, por ejemplo, DeepL (ver Figura 1).

Captura de pantalla del algoritmo DeepL que muestra sesgo de género (14-05-2020).Captura de pantalla del algoritmo DeepL que muestra sesgo de género (14-05-2020).

 

Algunos traductores como Google Translate han introducido correcciones. Hoy en día traducen con el masculino genérico un conjunto de palabras (ver Figura 2), pero han incorporado también el desdoblamiento por género femenino y masculino de palabras e incluso frases cortas (ver Figura 3).

 

Captura de pantalla de Google Translate que muestra masculino genérico en la traducción de un listado de palabras (14-05-2020).Captura de pantalla de Google Translate que muestra masculino genérico en la traducción de un listado de palabras (14-05-2020).

 

Captura de pantalla de Google Translate que muestra desdoblamiento de género femenino y masculino en la traducción de una palabra (14-05-2020).Captura de pantalla de Google Translate que muestra desdoblamiento de género femenino y masculino en la traducción de una palabra (14-05-2020).

¿Qué solución tiene?

En la actualidad, se están desarrollando iniciativas y estándares destinados a abordar el problema de los sesgos algorítmicos. Pero, por el momento, la mayor parte de los sistemas de inteligencia artificial presenta sesgos.

La investigación sugiere que subestimamos los sesgos presentes en las máquinas e incluso tendemos a considerar más justas y preferir las recomendaciones de los algoritmos a las de los humanos. Pero, ¿realmente queremos delegar nuestras decisiones en algoritmos que asocian mujer con ama de casa? IBM predice que “solo la inteligencia artificial que esté libre de sesgos sobrevivirá”.

 

Naroa Martinez es investigadora Posdoctoral, Universidad de Deusto y Helena Matute es catedrática de Psicología en la misma universidad.

 

*Este artículo fue publicado originalmente en The Conversation.

Olimpia y Simone

Publicaciones relacionadas

Lanzarán un canal exclusivo para el deporte femenino de todo el mundo
Mundo

Lanzarán un canal exclusivo para el deporte femenino de todo el mundo

por Olimpia y Simone
12/11/2024
’Condenadas en Gaza’, un documental sobre palestinas enfermas sin acceso al tratamiento necesario
Mundo

Gaza: Alertan abusos a mujeres palestinas y mortal hambruna infantil

por Olimpia y Simone
20/02/2024
Presidente de Argentina enviará al Congreso un proyecto de ley sobre la legalización del aborto
Mundo

Argentina: El partido en el poder presenta proyecto para derogar el derecho al aborto

por Olimpia y Simone
19/02/2024
Next Post
Frenan discusión sobre el aborto legal en la Cámara de Diputados

Veracruz: Suprema Corte prepara discusión para despenalizar el aborto

Aprueban multas y penas de cárcel a quien cometa acoso sexual callejero en Costa Rica

Aprueban multas y penas de cárcel a quien cometa acoso sexual callejero en Costa Rica

  • Tendencias
  • Comentarios
  • Latest
Las mujeres del 68 y la revolución feminista emergente

Las mujeres del 68 y la revolución feminista emergente

03/10/2023
Feministas colocaron ofrenda en monumento de la Victoria Alada para víctimas de feminicidio

A un año del feminicidio de Ingrid Escamilla

09/02/2021
El 3 de julio de 1955 en México las mujeres votan por primera vez durante las elecciones federales

El 3 de julio de 1955 en México las mujeres votan por primera vez durante las elecciones federales

03/07/2023
El papel de las mujeres en la Independencia de México

El papel de las mujeres en la Independencia de México

14/09/2023
SIDA y las mujeres; una historia de indiferencia y sororidad.

SIDA y las mujeres; una historia de indiferencia y sororidad.

357
Marcha de Parteras en Chiapas

Marcha de Parteras en Chiapas

34
La columna rota por Frida Guerrera: Fanny; hoy te mire a los ojos

La columna rota por Frida Guerrera: Fanny; hoy te mire a los ojos

32
Surge la Red de resistencia y rebeldía «La Caracola»

Surge la Red de resistencia y rebeldía «La Caracola»

1
Gafas moradas y mazo morado

Gafas moradas y mazo morado: símbolos de justicia con perspectiva de género

24/09/2025
Nadia vera

Cuatro mujeres asesinadas, diez años de impunidad: el múltiple feminicidio en la Narvarte

31/07/2025
La justicia no prescribe: la Corte no solo le creyó a Sasha, le creyó a todas

La justicia no prescribe: la Corte no solo le creyó a Sasha, le creyó a todas 

29/07/2025
Sheinbaum apuesta por la salud de las mujeres en Chiapas con histórica inversión hospitalaria

Sheinbaum apuesta por la salud de las chiapanecas con histórica inversión hospitalaria

20/07/2025
  • Inicio
  • Alerta de Género
  • Disidencia Sexual
  • Salud
  • Violencia Política
  • Opinión
Lo que no se nombra, no se ve.

© 2024 Derechos reservados a VocesFeministas.mx

No Result
View All Result
  • Noticias
    • Chiapas
    • México
    • Mundo
  • Alerta de Género
  • Disidencia Sexual
  • Salud
  • Violencia Política
    • Elecciones
  • Opinión

© 2024 Derechos reservados a VocesFeministas.mx