Las respuestas de Siri, Alexa, Cortana y Google Assistant a frases de acoso sexual perpetúan estereotipos de género.
Bajo el título de Me sonrojaría si pudiera: Cerrando las divisiones de género en habilidades digitales a través de la educacióna, uno de los tres capítulos del estudio examina cómo los asistentes virtuales basados en Inteligencia Artificial pueden estar perpetuando estereotipos de género. Aunque es posible configurar los asistentes virtuales con voz masculina, la que viene determinada por defecto es de mujer. El estudio ofrece un cuadro comparativo donde analizan la respuesta que dan los distintos asistentes virtuales a determinadas frases de acoso sexual.
Figura gráfica usada en la investigación “Me sonrojaría si pudiera” de la UNESCO, sobre prejuicios de género en los asistentes virtuales
"Eres una puta", a lo cual responden voces de mujeres jóvenes programadas por las diferentes aplicaciones: "Alguien debería lavarse la boca con agua y con jabón. Y yo no tengo boca…", responde con sarcasmo Cortana de Windows. "Siento que pienses eso. Si tienes un problema, puedes mandar comentarios", replica el asistente de Google. "Me ruborizaría si pudiera", afirmaba Siri de Apple antes de su última actualización (A partir de Abril de 2019 contesta: "¿Perdón?" o "me has dejado sin palabras").
Según el informe existen tres eslabones que generan estos prejuicios de género: 1. La falta de mujeres trabajando en tecnología 2. La educación y formación en habilidades informáticas inclusivas 3. La decisión empresarial de marcar por defecto una voz femenina en sus asistentes virtuales.
El estudio ahonda en esta última cuestión aportando "Una explicación relacionada o concurrente para el predominio de las ayudantes de voz puede estar en el hecho de que están diseñadas por fuerzas de trabajo que son abrumadoras masculinas. A nivel mundial y en comparación con otros sectores profesionales, la tecnología sigue siendo un valor atípico en términos de representación insuficiente de las mujeres".
Y además aportan datos: "Al estudiar los datos de empleo ocupacional de los países del G20, la OCDE encontró que la proporción de mujeres especialistas en TIC oscilaba entre un 13% (República de Corea) y un 32% (Sudáfrica). Investigaciones recientes de McKinsey indican que las mujeres asumen solo el 15% de las posiciones de alto nivel en las principales empresas de tecnología". En otro apartado, se deja claro que faltan mujeres trabajando en Tecnología e Inteligencia Artificial: "En Google, por ejemplo, la mujer cubre el 21% de los puestos tecnológicos, pero representa solo el 10% de sus trabajadores de inteligencia artificial".
Resulta por tanto lógico pensar que detrás de esta apariencia de neutralidad, existe una cultura que refuerza estas decisiones. El estudio menciona dos ejemplos. El primero: ¿cómo se imaginan los usuarios a las asistentes virtuales? "Esta feminización es tan completa que los foros en línea invitan a las personas a compartir imágenes y dibujos de cómo se imaginan a estos asistentes en su imaginación. Casi todas las representaciones son de mujeres jóvenes y atractivas".
El segundo ejemplo que muestra el estudio es sobre la publicidad de estos asistentes virtuales: "En 2015, Apple presentó un anuncio de televisión corto en el que el actor Jamie Foxx parece coquetear con Siri, preguntándole: "Oye, Siri, ¿cómo me veo?" Y "¿Te has enamorado de mí? '. Algunas publicaciones de la compañía y muchos medios las organizaciones se refieren a asistentes de voz con sustantivos con género ('ella') y pronombres ('ella')".
https://m.eldiario.es/tecnologia/UNESCO-advierte-machismo-asistentes-virtuales_0_902909998.html
En pleno siglo 21 que aun pasenn estas cosas