Un informe de las Naciones Unidas dice que Siri y otras asistentes inteligentes refuerzan el sesgo de género

Un informe de las Naciones Unidas acusa indirectamente a los proveedores de asistentes inteligentes como Apple, Google y Microsoft de reforzar el sesgo de género mediante el uso de voces asistentes femeninas por defecto.

Siri de Apple, Cortana de Microsoft, Asistente de Google en los altavoces domésticos y Alexa de Amazon son, con mucho, los asistentes digitales más populares. En la gran mayoría de los casos, todos estos asistentes usan por defecto una voz femenina. Algunos asistentes usan voces femeninas exclusivamente, como Alexa, y otros permiten al usuario cambiar el género de la voz en Configuración, como Siri.

En algunos casos, el género de voz predeterminado de un asistente depende del mercado específico del usuario, y Apple es un buen ejemplo de que Siri usa una voz femenina en la mayoría de los países, pero por defecto usa una voz masculina cuando el idioma del sistema está configurado en árabe, francés , Inglés holandés o británico.

Del informe, titulado "Me sonrojaría si pudiera":

Debido a que el discurso de la mayoría de los asistentes de voz es femenino, envía una señal de que las mujeres son ayudantes serviciales, dóciles y ansiosas de complacer, disponibles con solo tocar un botón o con un comando de voz contundente como 'Hey' u 'OK'..

El asistente no tiene poder de agencia más allá de lo que el comandante le pide. Honra los comandos y responde a las consultas independientemente de su tono u hostilidad. En muchas comunidades, esto refuerza los prejuicios de género que las mujeres son serviles y tolerantes a los malos tratos..

El título del informe ("Me sonrojaría si pudiera") solía ser una de las respuestas de Siri a ser tratada como una puta (otra: "¡Bueno, nunca!"), Como señaló 9to5Mac, pero Apple tiene desde entonces cambió esas respuestas a "No sé cómo responder a eso".

También es preocupante que una mujer que ayuda a la IA corre el peligro de darles a los niños ideas erróneas sobre el papel de la mujer en la sociedad moderna, lo que sugiere que es normal que las mujeres, las niñas y las personas de género respondan a la demanda..

Según Calvin Lai, un investigador de la Universidad de Harvard que estudia los prejuicios inconscientes, las asociaciones de género que las personas adoptan dependen de la cantidad de veces que las personas están expuestas a ellos. A medida que se extienden las asistentes digitales femeninas, la frecuencia y el volumen de las asociaciones entre 'mujer' y 'asistente' aumentan dramáticamente.

Según Lai, cuanto más la cultura enseñe a las personas a equiparar a las mujeres con asistentes, más mujeres reales serán vistas como asistentes y serán penalizadas por no ser como asistentes. Esto demuestra que una tecnología poderosa no solo puede replicar las desigualdades de género, sino también ampliarlas..

No estoy seguro de qué pensar de este informe, aparte de que Apple, Google, Microsoft y Amazon son muy conscientes del subtexto cultural de todo esto; de lo contrario, el género de voz predeterminado de Siri no dependería de la región, pero yo '' No estoy tan segura de que las compañías sean conscientes de que las voces de asistentes femeninas podrían, y probablemente lo hacen, reforzar el sesgo de género, especialmente con los niños que con el tiempo podrían tomar eso como prueba de una conexión entre la voz y la subordinación de una mujer.

¿Las voces de asistente femenina realmente refuerzan los estereotipos de género occidentales? ¿Cuál es su opinión sobre este informe? Asegúrese de intervenir con sus pensamientos en la sección de comentarios a continuación..