Mon. Jan 12th, 2026

Un informe de la ONU afirma que los asistentes de voz de AI como Alexa y Siri están alimentando el estereotipo de que las mujeres están "subordinadas".

Publicado por la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura), el informe de 146 páginas titulado "Me sonrojaría si pudiera" destaca que el mercado está dominado por asistentes de voz.

Según los investigadores, el uso casi exclusivo de las ayudantes de voz femeninas alimenta los estereotipos de que las mujeres son "serviciales, dóciles y ansiosas de complacer a las ayudantes".

Los investigadores también creen que la falta de maneras de hablar con los asistentes virtuales actuales también es problemática. Afirman que el hecho de que un asistente virtual responda a las solicitudes, sin importar cómo se las pida, refuerza la idea de que las mujeres son "serviles y tolerantes con el mal trato" en algunas comunidades.

De manera similar, el hecho de que los asistentes virtuales se pueden convocar con solo "tocar un botón o con un comando de voz contundente como" hey "o" OK ", hace que parezca que las mujeres están disponibles a pedido.

La mayoría de los asistentes virtuales usan voces femeninas por defecto pero ofrecen una opción masculina. Gigantes de la tecnología, como Amazon y Apple, han dicho en el pasado que los consumidores prefieren las voces femeninas para sus asistentes, con un portavoz de Amazon que recientemente atribuyó estas voces con rasgos más "comprensivos y agradables".

El informe destaca que los asistentes virtuales se crean predominantemente con equipos de ingeniería masculinos. Algunos casos incluso encontraron asistentes que "agradecían a los usuarios por el acoso sexual", y que los avances sexuales de los usuarios masculinos eran más tolerados que de las usuarias.

Se descubrió que Siri responde "provocativamente a los favores sexuales" de los usuarios masculinos, con frases como: "Me sonrojaría si pudiera" (de ahí el título del informe) y "¡Oooh!", Pero lo haría menos con las mujeres.

La falta de capacidad de las asistentes de voz para defenderse de insultos hostiles y sexistas "puede poner de relieve su impotencia", afirma el informe. Dicha codificación "proyecta una actitud de" los chicos serán niños "digitalmente encriptados" que "puede ayudar a que los prejuicios se apoderen y se propaguen".

En un intento por ayudar a abordar el problema, la ONU cree que deben utilizarse voces no humanas y que no tengan en cuenta el género. Los investigadores señalan la famosa voz robótica de Stephen Hawking como uno de esos ejemplos.

Alexa, el Asistente de Google y Cortana usan voces femeninas de forma predeterminada. Siri usa una voz masculina en árabe, inglés británico, holandés y francés.

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Co-localizado con la IoT Tech Expo, Blockchain Expo, y Cyber ​​Security & Cloud Expo.





By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.