Una Inteligencia Artificial se vuelve racista y machista al aprender a leer
La máquina asociaba con mayor probabilidad los nombres femeninos a palabras relacionadas con tareas domésticas o cuestiones familiares
Los resultados de este estudio muestran cómo el lenguaje está íntimamente entrelazado con los sesgos históricos y los estereotipos culturales
Las investigadoras han demostrado que este tipo de sesgos se pueden ver en varias máquinas que utilizan aprendizaje automático, como el traductor de Google
"Esencialmente", explica Caliskan, "esto refleja el hecho de que las asociaciones sesgadas tienen lugar de forma frecuente en los textos a los que ha tenido acceso la maquina, hasta el punto de que han terminado dando lugar a estereotipos estadísticamente significativos que han sido reconocidos y aprendidos por la IA". "Si fuéramos capaces de cambiar esta coincidencia de palabras", concluye esta investigadora, "las asociaciones sesgadas que parten del idioma se reducirían".
Las investigadoras aseguran que sus hallazgos no solo son importantes desde el punto de vista de análisis del lenguaje, sino que tienen especial importancia a la hora de desarrollar IAs de aprendizaje automático, dado que estas tecnologías "pueden perpetuar estereotipos culturales". Según Caliskan y Bryson, "si construimos un sistema inteligente que aprenda lo suficiente sobre las propiedades del lenguaje como para poder comprenderlo y producirlo, también adquirirá asociaciones culturales históricas, algunas de las cuales pueden ser censurables".
http://www.eldiario.es/cultura/tecnologia/Inteligencia_Artificial-sexismo-racismo_0_632387552.html