Selon une étude récente des Nations Unies, les assistants numériques tels que Siri et Alexa renforcent les stéréotypes sexistes nuisibles
Alexa d’Amazon et Siri d’Apple sont accusés de perpétuer des idées dépassées et préjudiciables sur les femmes par le biais de leurs réponses soumises aux demandes
Un rapport récent de l’UNESCO a révélé que Siri, Alexa et d’autres assistants en intelligence artificielle comme Cortana et Google Assistant de Microsoft, qui ont tous des voix de femmes par défaut, perpétuent des stéréotypes néfastes selon lesquels « les femmes sont obligeantes, dociles et enthousiastes, faites pour plaire, disponibles en appuyant simplement sur un bouton ou avec une commande vocale directe. » Le rapport met également en évidence les réponses passives et polies des assistants lorsque les utilisateurs font des remarques sexuellement abusives, encourageant ainsi un langage sexiste et abusif. Le rapport note :
« L’assistant n’a aucun pouvoir au-delà de ce que l’humain lui demande. Il honore les commandes et répond aux requêtes indépendamment de leur ton ou de leur hostilité. Dans de nombreuses communautés, cela renforce les préjugés sexistes généralement répandus sur le fait que les femmes sont soumises et tolèrent les mauvais traitements. Ce qui émerge est une illusion que Siri – une chaîne de code informatique insensible, non consciente et non humaine – soit une femme hétérosexuelle, tolérante et parfois invitante aux avances sexuelles et même au harcèlement masculins. Il projette une attitude cryptée numériquement de type « les garçons resteront des garçons ».
Le rapport, rédigé par l’Organisation des Nations Unies pour l’éducation, la science et la culture, connue sous le nom de UNESCO, s’appelle « Je rougirais si je pouvais », et c’est la réponse que Siri avait donnée lorsque les utilisateurs donnaient des commandes sexuellement explicites. L’étude porte sur les effets des biais dans la recherche sur l’IA et le développement de produits et les conséquences négatives à long terme du conditionnement social, en particulier des enfants. D’autant plus que les assistants vocaux ont des voix féminines et portent des noms féminins, les entreprises de technologie incitent donc une nouvelle fois les utilisateurs à se reposer sur des perceptions dépassées et préjudiciables aux femmes.
L’étude a formulé les premières recommandations officielles de l’ONU concernant les IA assistants personnels, exhortant les entreprises et les gouvernements à mettre fin à la pratique consistant à faire des assistants numériques des femmes par défaut. En plus de leur suggérer d’explorer la possibilité de faire entendre la voix « ni d’homme ni de femme », ainsi que de décourager les assistants de programme d’utiliser un langage abusif ou sexiste, et de les obliger à « annoncer que la technologie est non humaine dès le début des interactions avec utilisateurs humains. »