【AI 的多重宇宙】UNIVERSE-02 偏見與歧視

分享至

近幾年來,AI逐漸佔據我們的生活,小自每天不經意的點開購物網站,大至升學求職面試,AI在當中都有一定程度的影響力。AI演算法仰賴大量過往經驗和範例建立的資料庫,尋找資料庫中有用的相關性,用這些相關性預測人類行為,但這些預測可能是錯的或有偏誤 (bias)的。

講者、審定|東吳大學哲學系 顏均萍兼任助理教授X清華大學人文社會AI應用與發展研究中心 甘偵蓉博士後研究學者

彙整、撰稿|周書瑋

 

當今許多自動化決策系統透過AI來做決策,像是銀行審核信用卡、個人求職面試或申請學校等,如果AI推論所根據的資料庫本身是錯的或有偏誤,很可能間接剝奪人類權利。今天的演講我們邀請到清大AI應用與發展研究中心甘偵蓉研究員,和東吳大學哲學系顏均萍教授,和我們分享,基於人工智慧所發展出的資料或決策中,哪些環節可能會出現偏誤或歧視,又會對人類造成什麼樣的影響。

 
AI的訓練資料庫和使用情境造成偏誤
來源:臺大科學教育發展中心

要探討AI出現偏誤和歧視的原因,就要先定義偏誤和歧視。狹義的AI偏誤通常在統計或計算性的脈絡中談論,指AI預測或決策結果可能特別偏好某些群體或資料,使統計結果被系統性地扭曲,所獲得的數值沒有樣本代表性;廣義的AI偏誤則常在法律、社會制度、系統性的脈絡中談論,意指AI對於某群體的預測或決策的準確率如果很低,當該群體的權益在AI應用後而受損,此時AI對該群體的偏誤便可視為歧視,因為該偏誤是法律明定或社會上一般認為不應該基於性別、年齡、身心障礙、種族、社會階級、國籍、膚色等而有所差別對待(Schwartz, et al., 2022)。像是法律明定人們不應因性別而被差別對待,在男女收入相等的前提下,如果銀行以AI核定信用卡消費額度時,提供男性比女性平均來說更高的消費額度,此時AI的應用就有性別歧視之嫌。

AI偏誤可能來自於訓練AI模型的資料集存在偏誤,偏誤類型有資料集包含了不應差別對待的特徵或其代理因子等歷史偏誤、資料集包含某群體的資料過少或未能反映社會實際人口組成比例的抽樣偏誤(Hellström, Dignum, & Bensch, 2020)。亞馬遜求職履歷AI評分系統是歷史偏誤的絕佳例子:由於該系統用來訓練模型的資料集來自亞馬遜員工的履歷,但過去的員工大多是男性,AI模型被訓練時所獲得的資料大多為男性資料,因此系統在評分與篩選履歷時,即使已事先剔除以性別作為篩選條件,AI還是會自動針對那些偏向男性的姓名、興趣偏好等求職者給予較高評分,因此間接降低了女性被錄取的機會(Dastin, 2018)。另一個頗受爭議的應用是AI臉部辨識系統,開發者當初驗證模型的資料集男多女少,白人多黑人少,導致所訓練出來的模型在辨識白人男性的正確率遠高於黑人女性(Buolamwin & Gebru, 2018)。

AI的開發目的、使用方法和地區等系統性和社會性因子,也可能造成偏誤(Hellström, Dignum, & Bensch, 2020)。在美國曾發生建立醫療需求預測AI系統的資料庫主要來自私人保險的客戶資料,但在美國沒有全民健保,私人醫療保險費用昂貴,能投保者多為收入較高者,資料庫就有較多這類客戶的就醫資料,就醫原因可能是普通小感冒等,而收入較低者或黑人,沒有保險就不會隨意去看醫生,因此就醫紀錄往往是重大傷病。而平均來說,白人群體的經濟狀況又比黑人群體好。因此一旦依照來自私人保險公司的資料建立AI模型以預測醫療需求時,便會得到「白人醫療需求較高,黑人醫療需求較低,且相同醫療需求等級的白人所患疾病嚴重程度遠低於黑人」的結果(Obermeyer, Powers, Vogeli, & Mullainathan, 2019)。另ㄧ例子是美國政府為了鼓勵女學生投入科學研究,透過社群媒體投放廣告,但廣告平台演算法根據男女網路搜尋偏好,仍然傾向向男學生投放科學研究廣告,女學生收到的還是比較少(Lambrecht & Tucker, 2016)。又或是美國芝加哥的兒童受虐風險預測系統,由於該資料庫來自於「會使用社會福利」的族群上(也可以說是低收入戶),因此預測系統變相成為「預測低收入戶兒童的受虐風險」,不但忽略了不使用社會福利的家庭也有兒童受虐的風險,且低收入戶的兒童父母相較於其他父母,不平等地受到政府較多對於他們教養兒童方式的監控(Eubanks, 2018)。

 
AI模型建立過程中尋找最佳解的偏誤
來源:臺大科學教育發展中心

在尋找最佳解(或最佳推論)的AI模型建立過程中,模型的準確率提升在統計上也常需做出權衡(trade-off)(Hellström, Dignum, & Bensch, 2020)。如以美國罪犯出獄再犯預測系統COMPAS為例,為提升準確率而選擇讓模型的敏感度提高,此時就會降低特異度的數值,而這種選擇背後所側重的是「寧可錯押千人,也不能誤放一人」的再犯風險防治政策;反之,如選擇提升模型的特異度,此時敏感度的數值就會降低,而這種選擇背後意味著「寧可錯放千人,也不能誤押一人」的對於受刑人其人身自由權的重視(Cohen, 2022)。從這個例子我們可以看到,演算法是有政治與社會性的,它的結果要達到哪一種公平、促進誰的權益與什麼政策?我們要如何在不同的公平之間取捨或取得什麼樣的平衡?這是我們需要認真思考的問題。

 

消彌與避免AI歧視再製
來源:臺大科學教育發展中心

「科技來自於人性」是句從古至今的名言,也可以套用在AI系統上,只要系統是由人類設計,就會有人類價值滲入,一定有偏誤,光靠技術並無法也不能解決偏誤問題,更何況有偏誤不一定應用AI時就會帶來惡果或造成歧視、不平等對待(Hellström, Dignum, & Bensch, 2020; Schwartz, et al., 2022)。當人類社會存在不平等,就無法期待演算法徹底公平,演算法也不可能同時滿足所有利害關係人的要求。
要避免AI歧視再製,人類應先定位模型應用目的,是為了呈現世界的真實樣貌,還是矯正歧視特定族群等不平等的社會現況?此外,也可藉由建立模型卡(Mitchell et al., 2019)來增加模型透明度和可追溯性,並在AI被應用於社會前,先針對可能受該系統偏誤影響的高風險群體訂定安全監測計畫,避免該群體或所數個人的權益損失。AI開發者必須思考偏誤的根源,是出在建立與應用AI系統過程中的哪個環節,還是AI反映的其實是社會現況?在AI無所遁形的世代,人類必須學習如何駕馭這個好工具,而非被其所操控。

 

圖左為講師顏均萍老師,中間為講師甘偵蓉博士,右邊是主持人臺大心理系黃從仁教授|來源:臺大科學教育發展中心

 


參考資料

  1. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on Fairness, Accountability and Transparency (pp. 77-91). PMLR.
  2. Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. In Ethics of Data and Analytics (pp. 296-299). Auerbach Publications.
  3. Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
  4. Hellström, T., Dignum, V., & Bensch, S. (2020). Bias in machine learning--What is it good for? arXiv preprint arXiv:2004.00686.
  5. Lambrecht, A., & Tucker, C. E. (2016). Algorithmic bias? An empirical study into apparent gender-based discrimination in the display of STEM career ads. SSRN Journal. Retrieved from http://www.ssrn.com/abstract=2852260
  6. Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. In Proceedings of the Conference on Fairness, Accountability, and Transparency (pp. 220-229).
  7. Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453.
  8. Schwartz, R., Vassilev, A., Greene, K., Perine, L., Burt, A., & Hall, P. (2022). Towards a standard for identifying and managing bias in artificial intelligence.

 

 


精彩花絮

講師討論好熱烈啊!|來源:臺大科學教育發展中心

 

參加現場演講並提問,就有機會獲得好書一本!還能跟講師合照>///< |來源:臺大科學教育發展中心

 

參加現場演講並提問,就有機會獲得好書一本!還能跟講師合照>///< |來源:臺大科學教育發展中心
(Visited 455 times, 2 visits today)

分享至
views