信用卡公司的演算法如何製造性別歧視?

上月11日蘋果公司Apple Card遭爆提供男女不同信用額度,被質疑性別歧視,隨後美國開始對案件展開調查。

 

這個事件引起關注的重點是機器學習(machine-learning)與電腦計算規則的演算法(algorithms)在決策過程中所扮演的角色,顯然是帶有性別、種族歧視或其他形式的歧視。

 

社會往往會錯誤地認為電腦因為不像人腦一樣會思考,所以它不會造成歧視、是不偏頗的機器。但事實上,它所要處理的歷史數據資料、以及餵養或創造它的程式設計師們,可能本身是有偏見的,而且常常是無意識的。同樣地,機器會在沒有提出明確問題的情形下得出結論,例如,雖然沒有詢問性別的資料,仍然能夠區分男女。

 

我們是如何受到影響?

透過電腦演算法,從交通、科技到購物與運動都已獲得大幅改善。在我們的財務金融生活可以看到最明顯且直接的影響。

 

對消費者而言,演算法決定他們必須支付多少費用、或他們是否被允許購買某項產品。以保險為例,所謂的「郵遞區號樂透」會運用演算法決定兩個擁有相同財產和保安系統的人應付多少的房屋保險費。進行的方式是,使用郵遞區號進行演算找出那些區域裡的犯罪率,接著判斷財產被竊盜的可能性,並依此設定溢價。

 

有了信用評分,任何機器對於你還款能力可靠性的演算結論,都會影響你各個生活的層面,從簽手機合約到你能在哪裡租屋。在Apple Card案例中,我們不知道演算法如何做出決定或使用了哪種數據,但這可能包括歷史數據資料,這些數據涉及哪些人被認為較有財務風險,或者一直以來是誰提出了信貸申請。

 

所以這些演算法有偏見嗎?

經營Apple Card的Sach先生在事件爆發後也遭到外界批評,但他表示,他們不會去詢問申請者的性別、種族、年齡等等資料,如果那麼做會是違法的,所以演算決定的結論並不是依據申請者是男性或女性而來的。

 

然而,應用數據資料倫理中心(Center for Applied Data Ethics)南佛羅里達分部主任Thomas女士認為這樣的說法忽略了「潛在變項」,即便種族以及性別沒有被直接放入演算法當中,仍然會因為這些因素產生偏見。舉例來說,演算法不會知道一個人的性別是什麼,但是它可能知道你是一個國小老師,而國小本身就是個以女性為多數的領域。

 

在最具爭議性的犯罪與司法領域,歷史數據資料是選自過去某個時間階段,有可能在當時候警察或法官的人為決定是受到一個人的種族身分所左右的。機器因此學習和複製了來自過去可能帶有偏見的結論。

 

要處理以前從未見過的數據資料情況也將變得更糟。自動臉部或聲音辨識的軟體,由於幾乎都是使用白人、沒有地方口音的數據資料進行訓練,造成可能常無法正確辨識非白人或濃厚的地方口音,而這也是為何一些人打電話到呼叫救援中心會發怒的源頭。

 

問題該如何解決?

曾經在某一段時期,演算法公不公正的問題一直是大家熱議的話題,卻沒有達成什麼共識。

 

一種選擇是要企業針對演算法如何進行設定對社會大眾完全公開,但這些產品都是具有商業價值的財產,由擁有高度專業技術、薪資優渥的人才研發許久後才推出,他們不願意就這樣把自己的秘密洩漏出去。

 

另一種選擇是「演算法透明度」-告訴客戶演算最後做出決定的原因,以及他們的數據資料中哪些元素最重要。但是,關於提供這些資訊的最佳方法尚無共識。

 

答案之一可能是根據比較少的特定資訊發展出較多的演算法。為保險業提供軟體的Charles Taylor InsureTech公司執行長Sahota先生表示,越來越多的人使用聯合保單。保險公司可以透過雇主為一個特定勞工群體提供團體健康保險,被保險人則不需要個別填寫個人表格,因為保險公司會以整體來評估風險。隨著保險承保流程的簡化,消費者對於更少的點擊次數和更快速付費的需求正在出現。

 

但是,排除太多數據資料將使區別申請人和保單變得困難,這將導致產品同質化,將會花更多錢。Sahota先生認為應該告訴人們為什麼要求提供個人資訊、以及這些資訊將如何被使用。最後他認為,如果發現某件事無意間存在偏見,做一些事找到克服問題的方法是重要的,而非只是去指責都是數據資料的錯。

 

 

編譯來源: BBC News(2019.11.18)


 台灣女性/性別健康權益亟需您以實際行動來共同守護!

         竭誠歡迎認同《台灣女人健康網》理念的朋友捐款支持我們!

         持續提供更優質的內容是網站不斷努力的方向,而我們需要更多資源才能走更長遠的路。

         收到的每一筆捐款,都將挹注在網站經營、服務方案以及對政府的監督。

         無論捐款金額多寡都是支持我們的重要力量!感謝您!(→捐款資訊連結←)

 

 

 

 

 

 

 

 

 

看完這則文章你覺得?
實用
新知