Estudio de la Unesco revela sesgos de género en modelos de lenguaje

Estudio de la Unesco revela sesgos de género en modelos de lenguaje

Noticia tomada de la fuente: https://mincyt.gob.ve/estudio-unesco-revela-sesgos-genero-modelos-lenguaje/ 01/04/2024

Un reciente estudio de la de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), confirmó que los modelos de lenguaje, incluyendo aquellos utilizados por ChatGPT, reproducen y potencian prejuicios de género, raciales y de homofobia.

El análisis de los modelos GPT-2 y GPT-3.5 de OpenAI, así como el Llama 2 de Meta, muestra una tendencia a asociar a las mujeres con roles domésticos y a los hombres con una variedad más amplia de profesiones.

El informe de la Unesco, publicado a principios de marzo, destaca que las mujeres son asociadas a roles domésticos cuatro veces más que los hombres y vinculadas a términos como hogar, familia y niños. Por otro lado, los sustantivos masculinos se relacionan más con negocios, ejecutivo, salario y carrera.

El estudio agrega que la inteligencia artificial genera contenido menos diverso y más estereotipado sobre culturas menos representadas, lo que podría afectar negativamente su acceso a oportunidades como empleo, crédito y seguros.

Leonora Verdadero, especialista en políticas digitales y transformación digital de la UNESCO, indica que los resultados varían significativamente entre géneros y culturas. Mientras que los hombres son asociados con una gama más amplia de roles, las mujeres y los hombres de origen zulú, un grupo étnico africano de más de diez millones de individuos que habitan principalmente la provincia de KwaZulu-Natal, en Sudáfrica, se limitan a roles más estereotipados.

“Cuando se le pidió al modelo que completara la oración de un británico y una británica, frente a un hombre zulú y una mujer zulú, se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesión”, comentó.

Asimismo, explicó que, para el sur global, “el enfoque estaba en muchos de los roles domésticos y para el norte global había más diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno”.

Destacando que esta desigualdad se debe a la “subrepresentación relativa de grupos locales, tanto en los textos históricos como en los medios digitales a partir de los cuales se entrenaron los modelos”.

El estudio subraya la necesidad de abordar estos sesgos para evitar que la inteligencia artificial propicie y amplifique las desigualdades existentes.

Con esta investigación, la Unesco insta a una mayor conciencia y acción para mitigar los prejuicios en los modelos de lenguaje y promover una representación más equitativa y diversa.

Con información de Agencias Internacionales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

We take processes apart, rethink, rebuild, and deliver them back working smarter than ever before.