En FN-rapport säger att Siri och andra kvinnliga smarta assistenter stärker könsstörningar

En FN-rapport anklagar indirekt smarta assistentleverantörer som Apple, Google och Microsoft för att förstärka könsfördomar genom att använda kvinnliga assistentröster som standard.

Apples Siri, Microsofts Cortana, Googles assistent på hemmaledare och Amazons Alexa är överlägset de mest populära digitala assistenterna där ute. I de allra flesta fall har alla dessa assistenter en kvinnlig röst. Vissa assistenter använder kvinnliga röster uteslutande, som Alexa, och andra låter användaren ändra röstkön i Inställningar, som Siri.

I vissa fall beror en assistents standardröstkön på användarens specifika marknad, och Apple är ett bra exempel på att-Siri använder en kvinnlig röst i de flesta länder, men hon går inte som en manlig röst när systemspråket är inställt på arabiska, franska , Holländska eller brittiska engelska.

Från rapporten, med titeln "Jag skulle rodna om jag kunde":

Eftersom talet för de flesta röstassistenter är kvinnligt, skickar det en signal om att kvinnor är hjälpsamma, fina och ivriga att behaga hjälpare, tillgängliga med en knapptryckning eller med ett trubbigt röstkommando som "Hej" eller "OK".

Assistenten har ingen makthållning utöver vad som befälhavaren ber om det. Den hedrar kommandon och svarar på frågor oavsett ton eller fientlighet. I många samhällen stärker detta vanligt förekommande könsfördomar att kvinnor är underordnade och toleranta mot dålig behandling.

Rapportens titel ("Jag skulle rodna om jag kunde") brukade vara ett av Siris svar på att hanteras som en slampa (en annan: "Tja, jag har aldrig!"), Som noterats av 9to5Mac, men Apple har sedan ändrade dessa svar till "Jag vet inte hur jag ska svara på det."

Det handlar också om att en kvinnlig AI-hjälper riskerar att ge barn fel idéer om kvinnornas roll i det moderna samhället, vilket potentiellt antyder att det är normalt att kvinnor, flickor och kvinnligt könsindivider svarar på begäran.

Enligt Calvin Lai, en Harvard University-forskare som studerar medvetslös partiskhet, är könsföreningarna som folk antar beroende av antalet gånger människor utsätts för dem. När kvinnliga digitala assistenter sprider sig ökar frekvensen och volymen av samband mellan 'kvinna' och 'assistent' dramatiskt.

Enligt Lai, ju mer kulturen lär människor att jämställa kvinnor med assistenter, desto mer riktiga kvinnor kommer att ses som assistenter - och straffas för att de inte är assistentliknande. Detta visar att kraftfull teknik inte bara kan replikera jämlikhet mellan kön utan också utvidga dem.

Jag är inte säker på vad jag ska tänka på den här rapporten annat än att Apple, Google, Microsoft och Amazon är mycket medvetna om den kulturella subtexten för allt detta - annars skulle Siris standardröstkön inte vara regionberoende - men jag " Jag är inte så säker på att företagen är medvetna om att alla kvinnliga assistentröster kan, och förmodligen göra, förstärka könsförskjutning, särskilt med barn som med tiden kan ta det som ett bevis på en koppling mellan en kvinnas röst och underhållenhet.

Förstärker kvinnliga assistentröster västerländska könsstereotyper? Vad tar du med den här rapporten? Var noga med att chimera in med dina tankar i kommentarerna nedan.