Seguridad

Investigadores de Apple también intentan acabar con el sesgo de género en los traductores que usan Inteligencia Artificial (Ejemplo: Google o Bing)

Comencé mi pelea personal con los sesgos de género en los traductores de Google y de Microsoft en el año 2019, cuando me di cuenta de que, para mi sorpresa, cuando en una frase no se podía saber el género de un palabra, estaba sesgada. Es decir, con profesiones como «boss, manager, engineer o judge«, que se traducían en español en masculino por defecto, y profesiones como «Secretary o Nurse«, que se traducían en Español como femeninas.

Figura 1: Investigadores de Apple también intentan acabar
con el sesgo de género en los traductores que usan
Inteligencia Artificial (Ejemplo: Google o Bing)

Comencé primero con un artículo que publiqué el 6 de Mayo de 2019 titulado: «Las traducciones en «Google Translate» y el sesgo de género: A mis niñas no les gusta.» Ahí, aún con el interfaz de usuario antiguo de Google Translate, si pedías la traducción de «Nurse«, te decía que era «enfermera» directamente. Y si pedías «executive» era «ejecutivo«. Totalmente sesgado.

Figura 2: Nurse con sesgo de género femenino Año 2019.
(Ahora han cambiado el interfaz de búsqueda de traducciones
de una palabra y salen los dos, pero el sesgo permanece
en el modelo entrenado. Sigue leyendo.)
El 16 de Junio de 2019, en ese mismo artículo, titulado «Microsoft, Google, los servicios de traducción y el sesgo de género«, pedía que se diera en interfaz una opción para poder elegir el género no determinado de una determinada profesión, y que se marcara como «guessed» o «inventado» o «supuesto«, aquél término en el que el buscador se había inventado el género.
Me sorprendió ver en aquel entonces la cantidad de personas no eran capaz de ver la importancia de este sesgo de género subliminal, así que dediqué mucho tiempo a evangelizar sobre por qué es importante arreglar esto, y lo fácil que es si a nivel de interfaz se permite elegir el género y se avisa de que se ha inventado. Lo hice en varios artículos.
Por ejemplo, escribí un artículo en mi sección de «El futuro está por hackear» de Zenda Libros titulado: «La «Máquina Aprendiendo» que nombró secretaria a tu hija e ingeniero a tu hijo» donde explicaba por qué estos sesgos subliminales son tan peligrosos, ya que no hay defensa activa que se pueda utilizar, y se cuelan en le subconsciente de las personas. 

Seguí escribiendo artículos con muchos casos flagrantes de sesgos de género por defecto, y cómo afectan a las traducciones de noticias, de artículos, de libros, etcétera. Artículos como: 
También expliqué como, con una frase que tuviera 3 profesiones sin género en una traducción, se podía ver el género por defecto aprendido por el modelo, y con el equipo de Ideas Locas hicimos un pequeño test muy curioso para ver que profesiones son de chicos y cuáles de chica según lo aprendido por los traductores. Sorprendente que la mayoría de las profesiones son masculinas, y sólo una minoría salía femenina. Mirad los ejemplos.
Explique que, las propias empresas tecnológicas sabían de la importancia de esto, y llevaban tiempo intentando resolverlos, pero que aún los teníamos en herramientas que usan los niños y las niñas en las escuelas, y hay que resolverlo.
Pero no sólo eso, sino que además, estos traductores con IA de Google y Microsoft son plataformas para otros servicios, así que sus sesgos se expanden por todo el mundo tecnológico y a otras muchas plataformas, como sucedía por ejemplo con Twitter. Y por supuesto, todos estos sesgos, se han a los modelos de lenguaje como ChatGPT que si les pides traducciones, también tienen los mismos problemas.
Sorprendentemente, esto de lo que llevo quejándome y peleando por que lo cambien años, es algo que las propias guías de estilo de Microsoft y Google dicen que están mal y que hay que eliminarlo, como publiqué en el artículo: «Las traducciones de Google incumplen la guía de estilo de lenguaje inclusivo de … Google». También le sucede a Microsoft.
De todo esto, habló también el periódico El Correo, en su artículo:»¿Es Google Machista? El genero de los algoritmos«, donde recogía muchas de las cosas que os he estado contando hasta ahora. 

Figura 9: ¿Es Google Machista? Parte 1
En todo momento – desde el 2019 – yo proponía el uso de un interfaz que permitiría gestionar los géneros de los términos en los que éste era indeterminado y la traducción se lo inventaba, como he dicho antes, con una propuesta que yo dibujé así en aquel momento.
Por suerte, el movimiento se está haciendo global, y me ha llamado mucho la atención la propuesta que han hecho los investigadores de Apple en el paper académico titulado «Generating Gender Alternatives in Machine Translation» que han publicado en hace 15 días, y que viene abordar justo, justo, justo, justo este problema, y a proponer una solución como la que yo propuse en Junio de 2019.
Si te lees el paper, llama poderosamente la atención que el problema es justo el mismo. Es decir, el de inventarse el género y hacer algunas traducciones en las que todo es masculino y otras en las que todo es femenino, que es la aproximación que hoy usan en Google o Microsoft pero que sólo lo utilizan para cuando hay 2 términos con género indeterminado. Por eso, cuando hay 3 términos con género indeterminado salen los sesgos, como expliqué hace ya unos años.
La solución que proponen los investigadores de Apple en este paper es utilizar el interfaz de usuario para permitir definir el género de las entidades, como propuse también hace años. Aquí lo explican. Primero cuentan todas las posibilidades existentes 2^n.

Con 3 términos habría un total de 8.

Y la solución es poner un interfaz que permita elegir por cada entidad el género para la traducción, pudiendo usar memoria para que se use de ahora en adelante (pensando ya en modelos LLM).
Y la representación gráfica que ellos proponen es situar por cada término las dos alternativas, tal y como podéis ver en esta última imagen que os pongo.
Por supuesto, me encanta que los investigadores de Apple hayan propuesta una solución así. Creo que mientras que no se consigan modelos de IA NO Sesgados usar los interfaces para poner «Lipstick on a pig» es una aproximación a seguir. Pero es necesario que hay eliminación de lo subliminal para que las personas seamos conscientes de los sesgos. 
Por supuesto, me mola que 5 años después, los investigadores de Apple lleguen a lo que yo publiqué tanto tiempo antes. Pero por favor, tenemos que seguir trabajando para que se arreglen, así que si no lo has hecho aún, firma la petición de Change.ORG que te lo agradeceré.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)  

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.