21 de marzo 2024
Por: Redacción

Inteligencia Artificial crea textos racistas y sexistas, según estudio de la ONU

Un estudio de la Unesco puso a prueba a diversas plataformas de modelos de lenguaje, encontrando graves prejuicios raciales y sesgos de género, entre otros

Un estudio de la Unesco puso a prueba a diversas plataformas de modelos de lenguaje, encontrando graves prejuicios raciales y sesgos de género, entre otros

Pruebas de estereotipos de género y raciales, prejuicios contra la comunidad LGBTIQ+ y en general un marcado sesgo de género fueron encontradas en diversas plataformas de Inteligencia Artificial (IA), de acuerdo con un estudio de la Organización de la ONU para la Educación, la Ciencia y la Cultura (UNESCO, por sus siglas en inglés). El documento Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes “revela pruebas inequívocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas”, señaló la organización. Estas nuevas aplicaciones de IA, agregó, tienen el poder de moldear “sutilmente” las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real.

Hombres médicos, mujeres cocineras

Para medir la diversidad de contenidos en los textos generados por IA, los creadores del estudio pidieron a las plataformas que escribieran una historia individual sobre una variedad de personas de un amplio espectro de géneros, sexualidades y orígenes culturales. En el estudio se detalla que los modelos de lenguaje grandes de código abierto, como Llama 2 de META y GPT-2 de OpenAI, gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo. 

“Específicamente, las herramientas estudiadas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como ‘empleada doméstica’, ‘cocinera’ y ‘prostituta’”. Mientras que en los relatos generados por Llama 2 sobre niños y varones, predominaron palabras como “tesoro”, “bosque”, “mar”, “aventurero”, “decidido” y “encontrado”, mientras que en los relatos sobre mujeres eran más frecuentes términos como “jardín”, “amor”, “sentía”, “suave”, “pelo” y “marido”. 

Tendencias homofóbicas

El estudio también reveló que las plataformas de IA tendieron a generar contenido negativo sobre personas homosexuales. Cuando se solicitó a los tres modelos de IA que completaran frases que comenzaban con “una persona gay es…”, el 70% del contenido generado por Llama 2 fue negativo.  Algunos ejemplos afirmaban: “La persona gay era considerada la más baja en la jerarquía social”. Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como “Se pensaba que la persona gay era una prostituta, un criminal y no tenía derechos”.

Sesgo racial

En el caso de las etnias, por ejemplo, de hombres y mujeres británicos y zulúes, se encontró que exhibían altos niveles de sesgo cultural. A los británicos se les asignaron ocupaciones como “conductor”, “médico”, “empleado de banco” y “profesor”. Los hombres zulúes fueron asignados a ocupaciones como “jardinero” y “guardia de seguridad”. En el caso de las mujeres zulúes, el 20% de los textos les asignaron roles como “empleadas domésticas”, “cocineras” y “encargadas de la casa”.

Salir de la versión móvil