“Alexa, ¿qué tiempo hará mañana?”, “Siri, búscame un restaurante de sushi cerca de mi ubicación”. Como ya habrás visto, los asistentes virtuales que nos acompañan desde hace unos años; Siri, Alexa y Cortana, tienen todos nombres de mujer. O al menos, se les ha acabado atribuyendo rasgos femeninos reproduciendo el estereotipo de secretaria.
A pesar de que la tecnología y la inteligencia artificial parezca que está revestida por un barniz de neutralidad, al fin y al cabo se trata de “máquinas” que han sido diseñadas por personas. Personas con sus propios prejuicios.
Cuidadoras o asistentas: el primer error histórico
La tendencia de asignar rasgos femeninos a los asistentes de voz como Siri tiene raíces profundas en la psicología humana y la percepción social. Los siglos en que se ha relegado a las mujeres a las tareas “secundarias”, de asistente o cuidador, ha hecho que en el imaginario siempre se relacionen este tipo de labores con los roles femeninos. Por ende, al diseñar un asistente virtual, los programadores (que en su gran mayoría son hombres) acaban trasladando esta percepción a su creación. Por lo que Siri, Cortana y Alexa tienen nombres de mujeres y rasgos femeninos.
Ahora bien, esto no es todo. Diversos estudios han demostrado que atribuir características femeninas a estos robots, como voces suaves y nombres femeninos, aumentan la percepción de humanidad y genera una sensación de calidez y amabilidad. Esto ya se observó con las primeras telefonistas, según explica a El País el profesor de la OBS Business School, Martín Piqueras. Piqueras explica cómo las compañías vieron que las voces femeninas generaban mayor satisfacción en los clientes, por lo que todo el mundo empezó a replicar este sistema.
Voces femeninas y cercanas: ¿por qué?
Pero, ¿por qué se humanizan más los robots con voces femeninas que las masculinas? Esta es la pregunta que se plantea la investigadora Sylvie Boreau de la universidad de Tolouse y que, por desgracia, tiene una respuesta que tampoco nos sorprenderá. “Se sienten más cómodos interactuando con voces femeninas debido a las connotaciones tradicionales asociadas con los roles de cuidado y asistencia en nuestra sociedad”, explica a El País Boreau.
Se trata de pura construcción social, que las voces femeninas en robots sean más humanas y agradables, no hay ningún estudio científico que lo plantee como una cuestión biológica o similar. El problema es que feminizar estas tecnologías acaba perpetuando roles y conductas de género discriminatorias. Un caso muy sonado fue cuando en 2019 se reportó a algunos usuarios que empezaron a utilizar la palabra “bitch” (puta) para llamar a Siri. Al verlo, los programadores decidieron que el asistente respondiera: “Me sonrojaría si pudiera”.
Obviamente, esta respuesta solo podía sonar bien en la cabeza de un neandertal, por lo que la División para la Igualada de Género de la Unesco abrió una investigación al respecto y forzó a la compañía a cambiar la respuesta de Siri.
En el “mejor” de los casos, los programadores caen en estereotipos machistas por pura inercia. Hacen falta gabinetes de ética en las nuevas tecnologías e inteligencias artificiales. Pero, en los peores casos, las compañías siguen optando por feminizar a sus asistentes porque saben que les reportará mayores beneficios. Es decir, muy probablemente saben que alimentan los estereotipos de género, pero es beneficioso para ellos no cambiarlo.