預測準確就好了嗎?談人工智慧的不公平
許多報導中提到AI的「不公平」,其實都是來自「原始資料中就已經存在的」群體差異。對於這個問題,有些討論強調「原始資料可能不準確,導致預測失準」,但在這個問題之外,我們也可以討論,預測準確真的是AI發展當前的唯一目標嗎?為此,文章中也介紹了「統計歧視」這個概念,幫助大家進一步思考這個問題⋯⋯
Read more許多報導中提到AI的「不公平」,其實都是來自「原始資料中就已經存在的」群體差異。對於這個問題,有些討論強調「原始資料可能不準確,導致預測失準」,但在這個問題之外,我們也可以討論,預測準確真的是AI發展當前的唯一目標嗎?為此,文章中也介紹了「統計歧視」這個概念,幫助大家進一步思考這個問題⋯⋯
Read more在這逐漸自動化的世界裡,許多金融或政府機構已開始利用AI來審查貸款、社會福利、簽證,甚至於職缺應徵資格。但AI就像是一面鏡子,如實地反映訓練集中的資料,也難免透露出背後人類固有的偏好與社會不公,導致演算結果對弱勢族群的歧視,甚至因行政效率的提升,加速剝削的發生。「演算法的公平性與透明性」於是逐漸受到重視,歐盟更試圖將「可解釋AI」編入法律,要求所有「個人化自動決策」(Automated Individual Decision-Making)賦予用戶請求解釋的權利,並確保訓練數據的中立,不得讓任何用戶的權益因此受損。只是,如「黑盒子」般神秘又複雜的神經網路,其判斷依據可能就連開發者都理不清。
Read more