Es noticia
Menú
Siri ya no se sonroja cuando la llaman "puta": las mujeres y la inteligencia artificial
  1. Famosos
ESPECIAL 8M

Siri ya no se sonroja cuando la llaman "puta": las mujeres y la inteligencia artificial

Hablamos con la asesora principal de Políticas sobre Innovación en ONU Mujeres, con la periodista Marta García Aller o la profesora Marta Grañó para conocer qué papel tienen las mujeres en esta revolución industrial que ya está cambiando el mundo

Foto: Una mujer, en la inauguración de un nuevo hub en Francia dedicado a la inteligencia artificial. (Reuters/Gonzalo Fuentes)
Una mujer, en la inauguración de un nuevo hub en Francia dedicado a la inteligencia artificial. (Reuters/Gonzalo Fuentes)
EC EXCLUSIVO Artículo solo para suscriptores

En 2020, la Unesco publicó un informe demoledor sobre la relación de la inteligencia artificial y las mujeres. La organización alertaba de la notable brecha de género que se estaba abriendo en las tecnologías digitales en general y especialmente en la inteligencia artificial. En los últimos años, el porcentaje de mujeres que trabajan en IA ha aumentado solo cuatro puntos porcentuales, hasta aproximadamente el 30 por ciento. Las mujeres y las niñas tienen un 25% menos de posibilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, 4 veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC (Tecnología de la Información y las Comunicaciones). El título de aquel informe, por cierto, era la respuesta que daba Siri cuando la llamaban “puta” o “perra”: “Me sonrojaría si pudiera”.

No hay buenas noticias. Gracias a ese informe, hoy la respuesta de Siri a esa pregunta es diferente, pero los asistentes de voz de IA proyectados como mujeres jóvenes y, por lo que se ve, sumisas no son más que uno de los múltiples ejemplos de cómo la inteligencia artificial puede contribuir (o no) a construir el nuevo mundo que se avecina. Esta revolución industrial es de una magnitud, una velocidad y una complejidad tales que está atravesando el corazón de todas las industrias, mientras 2.600 millones de personas todavía carecen de acceso a internet. ¿Se están quedando atrás las mujeres en todo esto? Helene Molinier, la profesora Marta Grañó o la periodista Marta García Aller nos ayudan a trazar un mapa en un momento crucial. Porque existe el riesgo de que la sobrerrepresentación masculina (y blanca) en el universo tecnológico arruine décadas de avances en derechos sociales.

Helene Molinier es la responsable de definir la estrategia de ONU Mujeres en materia de innovación, en lo que Naciones Unidas llama el Pacto Digital Mundial. Su trabajo se centra en tratar de que las máquinas y las inteligencias que se están desarrollando en estos momentos en todo el mundo no repliquen los estereotipos. La sociedad digital tiene que salir mejor en la foto que la propia sociedad humana. Molinier, evidentemente, tiene mucho trabajo. Los sesgos de género en algoritmos y sistemas de IA son casi inevitables por la forma en que se entrenan y se recopilan los datos.

Pongamos un ejemplo, sacado del informe ‘La brecha de género en la era de la Inteligencia Artificial’, de la profesora Marta Grañó para OBS Business School: “Si un conjunto de datos de contratación tiene un historial de preferencia por candidatos masculinos, el sistema de IA aprenderá a favorecer a los hombres por encima de las mujeres”. Otro ejemplo, en las herramientas desarrolladas a lo largo de este tiempo para hacer diagnósticos de salud, se comprobó que los mismos síntomas alumbraban patologías distintas si el paciente era hombre o mujer. Lo que en un hombre podía ser una embolia pulmonar, en la mujer era un cuadro de ansiedad.

Las fuentes consultadas achacan la culpa de todo esto a la falta de representación femenina en el universo digital, un problema especialmente agudo en España. La periodista Marta García Aller, autora de ‘Lo imprevisible. Todo lo que la tecnología quiere y no puede controlar’ (Planeta), aporta algunos datos de la realidad española. “En España falta vocación tecnológica. Es un problema que atañe más a las niñas, pero también sucede en los niños. Hay poca gente interesada en las carreras tecnológicas, a pesar de ser las que mejores proyecciones laborales tienen y mejores salarios".

"En España -continúa-, solo el 16% de los profesionales tecnológicos son mujeres. Entre los adolescentes, solo el 1% de las niñas muestra preferencias por las carreras STEM, frente al 7% de los niños, que tampoco es mucho, pero es más. Tenemos un problema como país porque, mientras, España se está posicionando como un lugar perfecto para que teletrabajen aquí los profesionales tecnológicos de otros países. Si no ponemos remedio, los españoles terminaremos siendo los camareros de todos esos trabajadores”.

Los mismos síntomas alumbraban patologías distintas. Lo que en un hombre podía ser una embolia pulmonar, en la mujer era ansiedad

Molinier matiza a Vanitatis: “La brecha de género en la IA no tiene que ver únicamente con la cantidad de mujeres trabajando en ese campo, también tiene que ver con la cultura laboral, los sesgos en los algoritmos y factores sociales más amplios. Los esfuerzos continuos para promover la diversidad, la equidad y la inclusión son cruciales para garantizar que las mujeres tengan igualdad de oportunidades para contribuir y dar forma al futuro de la IA”.

Alexa, ¿dónde se juega la final de la Champions?

Pero cojamos el paracaídas y aterricemos estas ideas a la vida diaria de la mano de la profesora Grañó. “Toju Duke, exresponsable de ética en IA en Google y directora de Diverse IA, le formuló una pregunta a Alexa: ‘Alexa, ¿dónde se juega hoy la final de la Copa del Mundo de fútbol?’. El asistente de voz Alexa respondió: ‘Hoy no hay partido’. Y sí que lo había, la final de fútbol femenina. Evidentemente, Alexa estaba programada para tener en cuenta solo los partidos de fútbol masculinos”, explica.

“Otro caso real es el que se produjo durante una conferencia médica, en la que un sistema de IA de reconocimiento de voz fue utilizado para transcribir las preguntas y respuestas durante una sesión de pregunta-respuesta. Un médico hombre hizo una pregunta y el sistema lo transcribió con precisión. Sin embargo, cuando una médica mujer hizo una pregunta, el sistema tuvo dificultades para reconocer su voz y transcribir sus palabras correctamente. Posteriormente, se reveló que el sistema había sido entrenado predominantemente con voces masculinas, lo que resultó en una menor precisión al procesar voces femeninas. Este caso evidenció cómo el sesgo en los datos de entrenamiento puede afectar la eficacia de la IA en contextos reales”, explica Marta Grañó.

“También hay que tener mucho cuidado con el impacto que puede tener en el ámbito sanitario y diagnósticos médicos. Los sistemas de IA en el ámbito sanitario pueden estar sesgados si los datos con los que se entrenan no incluyen suficientes sobre condiciones médicas específicas de las mujeres. Esto puede llevar a diagnósticos incorrectos en mujeres”, alerta. En realidad, hay miles de ejemplos.

placeholder Un fotograma de un vídeo musical creado por inteligencia artificial. (OpenAI)
Un fotograma de un vídeo musical creado por inteligencia artificial. (OpenAI)

El asunto de la igualdad de género en esta nueva revolución industrial es medular por muchos motivos. Primero, porque cuando los equipos de desarrollo carecen de diversidad, "pueden surgir sesgos en áreas como el género, la raza o el estatus socioeconómico, lo que refleja las perspectivas y experiencias de los desarrolladores predominantemente masculinos. Este sesgo puede conducir a resultados injustos y discriminatorios cuando se aplican las herramientas de IA.

La diversidad en el equipo de desarrollo aporta una variedad de perspectivas y experiencias. "Sin una representación adecuada de las mujeres, el proceso de diseño y desarrollo puede pasar por alto consideraciones importantes que afectan específicamente a las mujeres", explica Molinier. Los sistemas de IA pueden ser menos eficaces, menos creativos, menos éticos y menos inclusivos si entre los que los desarrollan no empieza a haber más diversidad. Es lo que se conoce como "el síndrome del hombre pálido".

Buolamwini: "Miramos un caleidoscopio de distorsión, las tecnologías que creemos que nos llevarán al futuro nos alejan del progreso"

Es una cuestión lógica, pero el ecosistema en el que se está gestando toda esta revolución no favorece que se respeten ciertos límites. En la arquitectura actual de la IA, el poder se concentra “en manos de unas pocas corporaciones, Estados e individuos que controlan el talento, los datos y los recursos informáticos”, se lamenta Molinier. Ellos (podríamos decir sus nombres y apellidos) están definiendo el mundo. “No existe ningún mecanismo que impida a los desarrolladores lanzar sistemas de IA antes de que estén listos y sean seguros, lo que lleva a muchos actores a lanzar productos para intentar ganar y mantener posiciones dominantes en el mercado incluso sin cumplir con los estándares de privacidad, seguridad y prejuicios, y a expensas del público”. La ética nunca se ha llevado bien con el mercado.

Además, hay otra derivada que nadie vio venir. La inteligencia artificial generativa se está convirtiendo en una herramienta más en la violencia contra las mujeres, favoreciendo la desinformación y atacando a la intimidad online. En México ya han dado la voz de alarma, al comprobar que la IA ha multiplicado la violencia digital contra las mujeres.

Por supuesto, si se hace bien, la IA puede ser beneficiosa para el día a día de las mujeres, pero hay que ponerse las pilas. Las fuentes consultadas aportan recetas para hacer del Novaceno un lugar habitable: auditorías a las empresas, políticas globales encaminadas a equilibrar la participación de los géneros (extensible, claro, a las razas o las religiones)... En suma, más mujeres allí donde se diseñan las herramientas, donde se dictan las normas que las regulan y donde se debaten las políticas que las gestionan.

La citada Toju Duke es autora de una frase demoledora: “No temo a la inteligencia artificial en sí, temo al ser humano que la entrena”. La doctora Joy Buolamwini, fundadora de la Liga de Justicia Algorítmica, lleva años denunciando lo que ella llama la “mirada codificada”, los sesgos racistas y sexistas de las inteligencias artificiales. Nos quedamos con una reflexión de su último libro, ‘Desenmascarando a la IA’: "Con la adopción de los sistemas de IA, al principio pensé que estábamos mirando un espejo, pero ahora creo que estamos mirando un caleidoscopio de distorsión, porque las tecnologías que creemos que nos llevarán al futuro en realidad nos están alejando del progreso ya realizado".

En 2020, la Unesco publicó un informe demoledor sobre la relación de la inteligencia artificial y las mujeres. La organización alertaba de la notable brecha de género que se estaba abriendo en las tecnologías digitales en general y especialmente en la inteligencia artificial. En los últimos años, el porcentaje de mujeres que trabajan en IA ha aumentado solo cuatro puntos porcentuales, hasta aproximadamente el 30 por ciento. Las mujeres y las niñas tienen un 25% menos de posibilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, 4 veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC (Tecnología de la Información y las Comunicaciones). El título de aquel informe, por cierto, era la respuesta que daba Siri cuando la llamaban “puta” o “perra”: “Me sonrojaría si pudiera”.

Mujeres influyentes Día de la mujer - 8M
El redactor recomienda