5 Mar 2020
¿Es machista el algoritmo de Google?
Lectura: 8 mins.
|
Dificultad:

¿Es machista el algoritmo de Google?

No queda lejos la época en que si se buscaba “fútbol chicos” y “fútbol chicas” en Google Imágenes, por poner un ejemplo, los resultados que se obtenían eran… diferentes. Para la primera búsqueda, los resultados mostraban a niños jugando a fútbol, lógicamente. Sin embargo, para la segunda búsqueda, Google te mostraba a mujeres semidesnudas jugando con un balón como si de otra cosa se tratase. No tan lógico.

Poco después, cuando Google introdujo la función de sugerencias para la búsqueda por imágenes, multitud de personas denunciaron la connotación sexista que muchas de las recomendaciones presentaban. Si por ejemplo se escribía “las mujeres” en el buscador, Google te mostraba sugerencias como “deben quedarse en casa”, “son inferiores” o “deben estar en silencio”. Fue tanto el descontento, que la ONU utilizó en 2013 dichas sugerencias para realizar una campaña en contra de la desigualdad y el maltrato social que sufren las mujeres en todo el mundo.

Resultados machistas en la búsqueda por imágenes de Google

Los algoritmos de Google, encargados de mostrar resultados en función de la búsqueda, fueron los primeros en ser criticados por su parcialidad en cuanto a raza y género. No obstante, desde entonces muchas empresas se han encontrado en el centro de las críticas por culpa de ese tipo de algoritmos.

Google no es el único

En 2014, Amazon decidió dejar en manos de la inteligencia artificial las primeras fases de contratación. Mediante este sistema algorítmico, la empresa pretendía agilizar la gestión de recursos humanos y, de paso, neutralizar el proceso para evitar que la subjetividad humana afectase a la decisión. Lejos de conseguirlo, se obtuvo el resultado contrario. En 2015 se hizo evidente que el algoritmo encargado de seleccionar los cinco mejores currículos de cada cien tenía una clara preferencia por los candidatos masculinos, especialmente para los puestos más técnicos o de gran responsabilidad.El algoritmo de Facebook Ads discrimina por género a los posibles candidatos de ofertas de trabajo

Algo similar ocurrió con los anuncios de Facebook: en anuncios de empleo que contaban con un público neutro definido, se comprobó que el algoritmo de la red social escogía a quién mostrar dichos anuncios en base a prejuicios raciales y de género. Por ejemplo, se observó que, del público total impactado por un anuncio de empleo solicitando dependientes de supermercado, el 85% eran mujeres. Por otro lado, una oferta de empleo en la industria maderera había sido dirigida en un 70% a hombres blancos. A pesar de que para ambos anuncios la audiencia era la misma, el algoritmo de Facebook había decidido impactar a públicos muy diferentes.

El uso de estos algoritmos no queda limitado a grandes empresas como Google, Amazon o Facebook. La inteligencia artificial se utiliza para multitud de aspectos de nuestro día a día. La concesión de una hipoteca, el establecimiento del límite de tu tarjeta de crédito o incluso la probabilidad que existe de que tu casa se incendie están también determinados por este tipo de algoritmos.

¿Quién tiene la culpa?

En primer lugar, es necesario comprender cómo funcionan estos algoritmos. Funcionan mediante machine learning o aprendizaje automático, que es un tipo de inteligencia artificial. El aprendizaje automático consiste básicamente en enseñar a un ordenador un montón de datos, llamados también big data, para que aprenda a emitir juicios o predicciones sobre la información que procesa en función de los patrones que observa.

Por ejemplo, supongamos que queremos capacitar a un sistema informático para que sea capaz de reconocer si un objeto es un libro o no, teniendo en cuenta factores como la textura, el peso y las dimensiones. Un humano ya es capaz de hacer esto, pero un ordenador lo puede hacer de manera mucho más rápida. Para entrenar al sistema, se muestra al ordenador muchos tipos de objetos y, según las métricas establecidas, se le dice si el objeto es un libro o no. Tras probar y ajustar numerosas veces, el sistema debería de ser capaz de diferenciar entre lo que es un libro y lo que no.

Esto suena relativamente sencillo y puede serlo, si el primer lote de datos se clasifica correctamente e incluye una buena gama de métricas con muchos tipos diferentes de libros. Sin embargo, estos sistemas a menudo se alimentan de datos mucho menos variados y en escenarios en los que no necesariamente hay una respuesta objetiva. Por ejemplo, para el caso de Amazon, el algoritmo que se utilizó para la selección de los currículos había sido alimentado con datos de las personas contratadas en Amazon en los últimos 10 años. ¿Y qué ocurría? Que la mayoría de personas contratadas para puestos técnicos o de responsabilidad eran hombres. Por tanto, el algoritmo simplemente estaba reproduciendo el patrón que había aprendido.

Los algoritmos imitan nuestro comportamiento

Lo mismo ocurre con el algoritmo de Google. Este toma sus decisiones en base a lo que ha aprendido del conjunto de datos y muestra el contenido que considera más relevante para cada usuario. Además, Google determina qué páginas web son las más relevantes con respecto a una búsqueda en base a una serie de factores, como el tráfico de esa web o la frecuencia con la que otros sitios enlazan a la misma. Esto se resume en que Google considera relevante lo que nosotros consideramos relevante y mostrará aquello que, por norma, sea más interesante para las personas. Por tanto, si las webs o imágenes con más tráfico que contienen la palabra “chica” son webs de contenido erótico, los resultados que primarán en la búsqueda de esa palabra serán de contenido erótico. O si, por ejemplo, el algoritmo observa que las ofertas de trabajo para cargos de alta responsabilidad son clicados más veces por hombres que por mujeres y, además, observa que ese tipo de puestos son mayoritariamente ocupados por hombres, este mostrará la oferta a mayoritariamente hombres.

Mayor representación masculina en puestos de responsabilidad

Esto se resume en que, al fin y al cabo, lo único que hacen los algoritmos es imitarnos. Estos no toman decisiones, sino que repiten patrones aprendidos. Si la sociedad actual es machista y se refleja en los datos de los que se nutren estos sistemas, por consecuencia los algoritmos serán machistas también.

¿Qué se puede hacer?

La creación de algoritmos que sean totalmente imparciales en cuestión de género y raza está en la agenda de muchas empresas tecnológicas. De hecho, a raíz de varias polémicas, Google, Facebook y Apple formaron en 2016 la Partnership on AI, con el objetivo de estudiar y aplicar mejores prácticas en las tecnologías de Inteligencia Artificial.

Entre las distintas técnicas que se están utilizando, una de las más populares es la de completar los datos de los que se alimentan estos algoritmos para que sean más igualitarios. Básicamente, consiste en coger del conjunto de datos cada una de las oraciones que contengan lenguaje de género y duplicarla. Así, si una oración dice “él es un programador”, esta frase se duplicará para que también diga “ella es una programadora”. El resultado es un conjunto de datos equilibrados a nivel de género y, consecuentemente, un algoritmo imparcial a nivel de género.

Otra técnica es la de bloquear del conjunto de datos todo aquello —frases, imágenes o vídeos— que pueda hacer del algoritmo un sistema con prejuicios. Esto consiste en mostrarle al algoritmo los peores escenarios para posteriormente bloquearlos. Gracias a estas técnicas, productos como Google Home no responden a peticiones o preguntas machistas o racistas, y en su lugar ofrecen resultados de páginas que tratan sobre la desigualdad de género o el racismo.

No obstante, una de las causas adicionales por las que estos sistemas benefician con frecuencia a la población masculina es porque están creados mayoritariamente por hombres. La industria de la Inteligencia Artificial presenta uno de los porcentajes más bajos en cuanto a la cantidad de empleadas del sexo femenino. Por tanto, otra posible solución para evitar que los algoritmos sean machistas, sería procurar que haya suficiente representación femenina que influya en el proceso del aprendizaje automático.