當演算法決策結果對自己有利時,我們才會覺得公平嗎?

分享至

當演算法決策結果對自己有利時,我們才會覺得公平嗎?

撰文/楊期蘭(日本東京大學學際情報學)

我們未來能不能通過智慧系統的判斷取得工作或入學資格、通過考試、通過信用評等,都會有演算法的介入。當越來越多事情交由演算法決定後,你會不會好奇這些決定我們得到多少機會的演算法到底「公不公平」?一起來看看人機互動研究者們如何透過線上實驗發現:當演算法結果對個人有利時,即便我們明知這是一個帶有偏見的演算法,也會認為它是公平的?!既然如此,數位素養能夠改變我們對公平的感受嗎?

曾經好奇過臉書如何決定你貼的文章被多少人看到嗎?好奇YouTube怎麼決定我們上傳的影片觸及到哪些人嗎?為什麼有些人的內容點閱數容易衝高,但是自己的未必如此?演算法的判斷真的公平嗎?我們每天打開臉書、YouTube、線上購物平台時,演算法已在為我們決定要看哪些文章、看什麼影片或是商品,演算法不只影響我們接收哪些資訊,也會影響我們被其他人看見的機會,例如我們在社群網站分享一則訊息時,並非所有朋友都有同樣的機會看到我們PO的內容,而是根據演算法背後納入的參數來決定訊息的觸及範圍;對一個內容創作者來說,所做出影片在YouTube上會被推薦給哪些人、寫出的文章會如何被Google搜尋到,這些都是演算法替我們決定的;不只在資訊接收上,我們未來能不能通過智慧系統的判斷拿到工作或入學資格、通過考試、通過信用評等,都會有演算法的介入,當越來越多事情交由演算法決定後,你會不會好奇這些決定我們得到多少機會的演算法到底「公不公平」?

「演算法做出決定」v.s.「人做出決定」,我們的感受相同嗎?

當人在與機器人或是智慧系統互動時,會傾向擬人化這些機器或智慧系統,把我們平時跟其他人類社交的一些規則或期待施加於機器上,像是有禮貌的對待自己比較熟悉的機器人,或是認為具有男性聲音的機器人比較具有權威性,女性聲音的機器人比較了解愛與人際相處。當我們不經意用對待其他人類的方式來對待機器時,我們面對機器或演算法做出決定的態度還會像是面對人類做出決定的時候一樣類似的態度嗎?

過去針對人類決策的相關研究發現,假使決策結果對自己有利,我們就傾向認為這個決定是公平的;而假使決策的過程是透明的,我們也會傾向覺得決定較公平,像是如果公司有向員工說明如何決定裁員的過程,當人們聽到結果後比較傾向認為所有決定都是公平的。在面對人做出的決策時,清楚透明的決策過程會影響我們對公平的感受,那麼今天如果換作是演算法做決定,當電腦給出的結果是對自己有利,而且做決策的過程很透明地讓我們理解, 我們仍然也會覺得它比較公平嗎?

來自美國卡內基美隆大學與亞馬遜的人機互動研究學者們於2020年提出了一個研究,嘗試探討「演算法決策結果對自己是否有利」、「不同演算法設計開發過程的說明」以及「對演算法相關的背景知識多寡」這三個因素對人們感受演算法判決結果是否公平的影響。

研究者們透過亞馬遜的群眾外包平台 (Amazon Mechanical Turk) 進行一個線上實驗,來回答上述研究問題。在這個群眾外包線上工作平台上,每個工人(稱作「online worker」)拿到酬賞的方式取決於他完成了多少被指派的線上任務,而表現好的人可以被平台系統評定為優秀工人(Master worker),如果成為優秀工人,他就比較容易爭取到更好的線上工作機會。

研究者們在這群眾外包平台上把實驗訊息發送給590位線上參與者,告訴他們有一個線上系統將被用來判定他們是否能成為優秀工人,接著把他們隨機分配在不同的實驗組別中,實驗的流程是:首先讓參與者看完這個判定他們是否能成為優秀員工的演算法描述,接著告訴他們一個結果:一半的人會看到「通過」成為優秀會員,另一半的人看到「不通過」的結果,最後請他們回答一系列問題回報自己覺得這個演算法有多公平

除此之外,不同組別的線上參與者會看到不同的決策系統描述跟判定結果。舉例來說,被分配在「演算法決策結果對自己有利」組別中的參與者,看到的判定結果會是「通過成為優秀工人」;被分配在「演算法有偏誤」組別的人,會清楚看到決策系統比較能準確判定男性,但對於女性有較低的準確率;被分配在「演算法設計開發過程透明」組別的人則會被告知系統的設計細節,包含採用哪些參數以及最佳化的過程等等。透過比較線上參與者們在這些不同組別中對演算法信任程度的判定來了解到底哪些因素會影響人們對演算法決策結果的公平感

若自己是既得利益者,即便遇到有偏見的演算法,人們也覺得公平

研究結果發現,當判斷結果對自己有利的時候,人們就傾向覺得演算法是公平的;反之亦然,當結果對自己不利,就覺得它不公平。而且即便人們已經知道演算法內部有不一致的偏見存在,像是很明確的告訴他們這個算法對於女性判斷較不準確、對白人有較高準確度、對25歲以下族群有較高準確率等,即使人們知道這些這個演算法明顯的無法準確判斷某些群體資訊,倘若結果對自己有利,人們仍然傾向認為它是公平的

若沒有相關背景知識,被告知演算法開發過程對人們覺得公不公平影響不大

另一個發現是,對於這些演算法設計開發細節的透明程度對於人們判斷它決策後的公平性沒有太大影響,也就是說,對於大部分人而言,知道演算法用了什麼最佳化方法,採取哪些參數進行判斷等,這些資訊未必能幫助大家了解它們與決策結果之間的關聯。

數位素養越高的人傾向認為演算法是公平的

此外,研究者們把所有線上參與者的教育背景以及他們對於演算法相關了解程度高低分類,發現對於演算法相關知識了解較多的人,在評斷有偏見或較少偏見的演算法時,無論結果是否對自己有利,都傾向認為它們是公平的;但對演算法知識了解較少的人傾向無論如何都把對自己有利的演算法評定為較公平的,而認為對自己不利結果的演算法是較不公平的。

對演算法運作有更多了解,就比較不會只因為結果對自己有利而認為明顯帶有偏見的演算法公平

從這個研究的主要發現看來,我們可以知道當人們對演算法的設計開發過程或是進行決策的原理不了解的話,就容易受個人是不是直接受益於決策結果來評斷算法的公平性,當人們不了解演算法對於不同子群體的人辨識準確率不同以及演算法由誰設計會對判斷結果造成什麼影響的話,身為既得利益者的人就會一直覺得這個設計是公平的,反之亦然。舉例來說,如果我對演算法背後設計原理了解不多,即便我知道這個算法對於年輕族群有較高的準確率,對年長這有較低準確率,當我因為相對年輕而受益於這個決策系統的判斷結果後,也會自然的認為它是公平的,不會去思考或理解為什麼自己可以受益但是另一些人不行,而大力擁護這個有明顯偏見的決策系統。

任何決策結果都免不了對部分人有利,對另一群人不利,因此我們需要更多互動設計搭配解釋機制以及演算法相關知識的教育,來幫助大家了解整個演算法決策過程,進而影響人們對於決策公平性的感受,做出超越個人利益的判斷,而不是在一知半解的情況下單就因為自己是既得利益者而認為所有演算法的決策結果都是公平的,而忽略演算法設計還有訓練資料來源本身帶有的限制。

提升大眾數位素養讓我們更明白演算法決策的限制而不受個人利益影響

在不久的未來,會有越來越多智慧決策系統被納入司法體系或資源分配的情境,假若由智慧系統來決定我們的信用評等分數並將我們歸類,替我們決定可以享有多少的權力,當我們對這些演算法背後的決策機制有更多認識,就更能意識到演算法所納入的參數、訓練資料來源、資料多元性、建模方法等都會影響決策(資源分配)的結果,如此一來,即便一個有偏見的決策系統產出只對我們自身有利的結果時,我們也不會太過信賴它的公平性,會明白它有所限制,無法用同樣的準確率判別擁有不同屬性的人。

公平是人類建構出來的感覺,唯有當我們更認識所有可能影響決策結果的因素後,才能站在不同的角度去理解為什麼自己在一些情況下可以受到演算法青睞得到有利的結果、而另外一些情況下不行,當我們對這些決策系統背後機制有更多認識後,就會發現無論系統判定結果對自己有利與否,我們都能明白它有其限制以及它在哪些層面有限制,這樣的理解才會讓我們面對系統決策結果時得到被演算法公平善待的感覺

 

參考資料

  1. C. Nass, J. Steuer and E. Tauber, “Computers are social actors”, Proceedings of the SIGCHI conference on Human factors in computing systems celebrating interdependence – CHI ’94, pp. 72-78, 1994. Available: 10.1145/191666.191703.
  2. R. Wang, F. Harper and H. Zhu, “Factors Influencing Perceived Fairness in Algorithmic Decision-Making”, Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 2020. Available: 10.1145/3313831.3376813.

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

(Visited 37 times, 1 visits today)

分享至
views