Investigadores de Apple también intentan acabar con el sesgo de género en los traductores que usan Inteligencia Artificial (Ejemplo: Google o Bing)
Comencé mi pelea personal con los sesgos de género en los traductores de Google y de Microsoft en el año 2019, cuando me di cuenta de que, para mi sorpresa, cuando en una frase no se podía saber el género de un palabra, estaba sesgada. Es decir, con profesiones como «boss, manager, engineer o judge«, que se traducían en español en masculino por defecto, y profesiones como «Secretary o Nurse«, que se traducían en Español como femeninas.
Figura 1: Investigadores de Apple también intentan acabar
con el sesgo de género en los traductores que usan
Inteligencia Artificial (Ejemplo: Google o Bing)
Comencé primero con un artículo que publiqué el 6 de Mayo de 2019 titulado: «Las traducciones en «Google Translate» y el sesgo de género: A mis niñas no les gusta.» Ahí, aún con el interfaz de usuario antiguo de Google Translate, si pedías la traducción de «Nurse«, te decía que era «enfermera» directamente. Y si pedías «executive» era «ejecutivo«. Totalmente sesgado.
Figura 2: Nurse con sesgo de género femenino Año 2019. (Ahora han cambiado el interfaz de búsqueda de traducciones de una palabra y salen los dos, pero el sesgo permanece en el modelo entrenado. Sigue leyendo.) |
El 16 de Junio de 2019, en ese mismo artículo, titulado «Microsoft, Google, los servicios de traducción y el sesgo de género«, pedía que se diera en interfaz una opción para poder elegir el género no determinado de una determinada profesión, y que se marcara como «guessed» o «inventado» o «supuesto«, aquél término en el que el buscador se había inventado el género.
Figura 3: Ejemplo de cómo podría informarse al usuario de que una traducción tiene «géneros arbitrarios» publicado en Junio de 2019 |
Me sorprendió ver en aquel entonces la cantidad de personas no eran capaz de ver la importancia de este sesgo de género subliminal, así que dediqué mucho tiempo a evangelizar sobre por qué es importante arreglar esto, y lo fácil que es si a nivel de interfaz se permite elegir el género y se avisa de que se ha inventado. Lo hice en varios artículos.
Por ejemplo, escribí un artículo en mi sección de «El futuro está por hackear» de Zenda Libros titulado: «La «Máquina Aprendiendo» que nombró secretaria a tu hija e ingeniero a tu hijo» donde explicaba por qué estos sesgos subliminales son tan peligrosos, ya que no hay defensa activa que se pueda utilizar, y se cuelan en le subconsciente de las personas.
Seguí escribiendo artículos con muchos casos flagrantes de sesgos de género por defecto, y cómo afectan a las traducciones de noticias, de artículos, de libros, etcétera. Artículos como:
- La gestión del sesgo de género en los traductores de Microsoft y Google: Los responsables nacionales y los Cloud Solutions Architect (CSA) son hombres
- Los hackers son hombres, según la IA del traductor de Google y de Microsoft
- Por defecto puede ser eso: «Un Defecto». The Best Tennis Player & The Black Falcon
También expliqué como, con una frase que tuviera 3 profesiones sin género en una traducción, se podía ver el género por defecto aprendido por el modelo, y con el equipo de Ideas Locas hicimos un pequeño test muy curioso para ver que profesiones son de chicos y cuáles de chica según lo aprendido por los traductores. Sorprendente que la mayoría de las profesiones son masculinas, y sólo una minoría salía femenina. Mirad los ejemplos.
Explique que, las propias empresas tecnológicas sabían de la importancia de esto, y llevaban tiempo intentando resolverlos, pero que aún los teníamos en herramientas que usan los niños y las niñas en las escuelas, y hay que resolverlo.
Pero no sólo eso, sino que además, estos traductores con IA de Google y Microsoft son plataformas para otros servicios, así que sus sesgos se expanden por todo el mundo tecnológico y a otras muchas plataformas, como sucedía por ejemplo con Twitter. Y por supuesto, todos estos sesgos, se han a los modelos de lenguaje como ChatGPT que si les pides traducciones, también tienen los mismos problemas.
Sorprendentemente, esto de lo que llevo quejándome y peleando por que lo cambien años, es algo que las propias guías de estilo de Microsoft y Google dicen que están mal y que hay que eliminarlo, como publiqué en el artículo: «Las traducciones de Google incumplen la guía de estilo de lenguaje inclusivo de … Google». También le sucede a Microsoft.
De todo esto, habló también el periódico El Correo, en su artículo:»¿Es Google Machista? El genero de los algoritmos«, donde recogía muchas de las cosas que os he estado contando hasta ahora.
Figura 9: ¿Es Google Machista? Parte 1
Por supuesto, como no me iba a quedar ahí, decidí abrir una campaña en Change.ORG para recoger firmas de todos los que pensarais que Google y Microsoft deberían eliminar ese sesgo de género por defecto subliminal.
Más de 35.000 personas han firmado ya. Firma tú.
En todo momento – desde el 2019 – yo proponía el uso de un interfaz que permitiría gestionar los géneros de los términos en los que éste era indeterminado y la traducción se lo inventaba, como he dicho antes, con una propuesta que yo dibujé así en aquel momento.
Figura 11: Ejemplo de cómo podría informarse al usuario de que una traducción tiene «géneros arbitrarios» publicado en Junio de 2019 |
Por suerte, el movimiento se está haciendo global, y me ha llamado mucho la atención la propuesta que han hecho los investigadores de Apple en el paper académico titulado «Generating Gender Alternatives in Machine Translation» que han publicado en hace 15 días, y que viene abordar justo, justo, justo, justo este problema, y a proponer una solución como la que yo propuse en Junio de 2019.
Si te lees el paper, llama poderosamente la atención que el problema es justo el mismo. Es decir, el de inventarse el género y hacer algunas traducciones en las que todo es masculino y otras en las que todo es femenino, que es la aproximación que hoy usan en Google o Microsoft pero que sólo lo utilizan para cuando hay 2 términos con género indeterminado. Por eso, cuando hay 3 términos con género indeterminado salen los sesgos, como expliqué hace ya unos años.
La solución que proponen los investigadores de Apple en este paper es utilizar el interfaz de usuario para permitir definir el género de las entidades, como propuse también hace años. Aquí lo explican. Primero cuentan todas las posibilidades existentes 2^n.
Y la solución es poner un interfaz que permita elegir por cada entidad el género para la traducción, pudiendo usar memoria para que se use de ahora en adelante (pensando ya en modelos LLM).
Figura 15: Propuesta de Interfaz para elegir el género.
Y la representación gráfica que ellos proponen es situar por cada término las dos alternativas, tal y como podéis ver en esta última imagen que os pongo.
Por supuesto, me encanta que los investigadores de Apple hayan propuesta una solución así. Creo que mientras que no se consigan modelos de IA NO Sesgados usar los interfaces para poner «Lipstick on a pig» es una aproximación a seguir. Pero es necesario que hay eliminación de lo subliminal para que las personas seamos conscientes de los sesgos.
Por supuesto, me mola que 5 años después, los investigadores de Apple lleguen a lo que yo publiqué tanto tiempo antes. Pero por favor, tenemos que seguir trabajando para que se arreglen, así que si no lo has hecho aún, firma la petición de Change.ORG que te lo agradeceré.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico