Siri複製性別偏見?

聯合國教科文組織(Unesco)的一份研究報告指出,人工智慧語音助理,例如:Apple的Siri與亞馬遜的Alexa,發音為女聲,並常對用戶提出的問題,給予順從屈服及調情的回應,包括公然辱罵的問題也是一樣,這會鞏固認為女性是低聲下氣的性別偏見。

 

女聲語音助理強化性別偏見

該研究報告指出,「由於大部分語音助理都是女聲發音,這釋放出一個訊號:女性是熱於助人、溫順及取悅他人的幫助者。而用戶只需按下按鍵,或發出微弱指令即可」。

 

「語音助理對於指令的要求沒有任何主體性,無論指令與問題的語調為何或是帶有敵意,語音助理都會對其表現尊敬,在許多地區,這將強化一般認為女人對惡劣對待都會屈從容忍的性別偏見。」

 

該報告名為「I’d Blush if I Could.(如果我可以的話,我會臉紅)」,其中寫到當用戶向語音助理說「You’re a slut.(你是個蕩婦)」,Siri就會如此回應;而Alexa則會說:「Well, thanks for the feedback.(好,多謝你的反饋)」。

 

工程師團隊近9成為男性

報告寫到,設計這些產品的公司員工壓倒性都是男工程師團隊,他們把AI系統設計成讓女性語音助理以調情的口吻回應不當言語,「科技公司將這些產品擬人化為女性,對言語性騷擾作出偏頗、平淡或具歉意的反應,這樣的奉承態度尤其令人擔憂」。

 

用戶會對語音助理提出性問題

人工智慧發明遭受性騷擾的現象並不少見。微軟語音助理產品Cortana也曾被發現,有非常多早期的用戶對語音助裡的性生活進行發問。

 

曾有一個發展數位語音助理產品的公司進行了研究,發現至少15%用戶與語音助理的互動很明顯具有性意味,公司認為實際發生情形可能比這個比例更高,但偵測性暗示對話內容在技術上有困難。

 

聯合國建議開發中性語音助理 禁止性別偏見的不當語言

教科文組織建議科技公司停止將語音助理預設為女性,開發「中性性別」的可行性,並阻止具性別意涵的侮辱和辱罵性語言。同時將語音助理設計為跨裝置可互通使用的,並在與人類互動一開始就聲明這並非真人。

 

目前狀況已改善但仍難完全改變

科技公司顯然已察覺了問題,目前實際測試的結果發現,這些語音助理已改成以「I’m not going to/ I don’t know how to respond to that.(我不會/不知道如何回答這個問題)」或「I’m not sure what outcome you expected.(我不曉得你想要得到什麼回應)」等方式回應用戶的言語性騷擾。

 

然而即便如此,這些被原廠設定為女聲的人工智慧助理,在面對人類用戶給予其他指令時,仍然會展現傳統定義的女性特質那一面,隨時準備等著要服侍主人,即使不想遵從指令,也會溫柔有禮貌地回絕。因此雖然科技公司的改變看似是進步,但要真正改善性別刻板印象仍不樂觀。

 

編譯來源:The Guardian 1(2019.05.22)The Guardian 2(2019.05.22)

 

 

 

 

看完這則文章你覺得?
實用
新知