A la tecnología se le suele atribuir cualidades como la precisión y la objetividad. Cuando hablamos de Inteligencia Artificial que es alimentada por muchos datos y algoritmos se llega a pensar que puede tomar algunas decisiones de manera menos sesgada que una persona, puesto que no influirán en esa tecnología factores que sí que influyen en las decisiones humanas. Las redes neuronales de aprendizaje profundo procesan los datos igual que lo haría un cerebro, trabajando en distintas capas con los datos aportados para lograr un objetivo común. Pero ¿qué pasa si esos datos con los que se alimentan presentan un claro sesgo androcéntrico? Esto es lo que Joy Boulamwini descubrió cuando trabajaba en el MIT Media Lab: que los sistemas de reconocimiento facial presentaban más dificultades para reconocer las caras de las mujeres que de los hombres y aún más si estas tenían piel oscura. La investigadora identificó que la base del problema se encontraba en que el algoritmo de la IA no había sido lo suficientemente alimentado con rostros femeninos y, menos aún, con rostros femeninos racializados. Para evitar que estos sesgos se mantengan en los desarrollos tecnológicos fundó la Liga de Justicia Algorítmica que trabaja a favor del desarrollo de buenas prácticas para la responsabilidad tecnológica.
Si pensamos que solo un 12% del total de personas ocupadas en el sector TIC son mujeres y que aún es menor el número de ellas que ocupan puestos de responsabilidad y que, además, sus sueldos son un 8,9% menores a los de los hombres en su misma posición, no es de extrañar que existan sesgos androcéntricos en los nuevos desarrollos de IA. Pero, puesto que estas tecnologías van a ser esenciales en el futuro más próximo, es necesario que se tomen medidas a todos los niveles para que la mitad de la población no sea ignorada y discriminada por estas aplicaciones como las que se proponen desde el estudio Mujeres y digitalización: de las brechas digitales a los algoritmos.
Comentarios
Publicar un comentario