預測準確就好了嗎?談人工智慧的不公平

許多報導中提到AI的「不公平」,其實都是來自「原始資料中就已經存在的」群體差異。對於這個問題,有些討論強調「原始資料可能不準確,導致預測失準」,但在這個問題之外,我們也可以討論,預測準確真的是AI發展當前的唯一目標嗎?為此,文章中也介紹了「統計歧視」這個概念,幫助大家進一步思考這個問題⋯⋯

Read more

為什麼人們固執己見?

科學研究發現讓人們固執己見的幕後黑手是我們的大腦。英國倫敦大學學院 (University College London)、倫敦大學城市學院 (City University) 、美國維吉尼亞理工醫學研究院 (Virginia Tech Carilion) 的研究團隊,在整理文獻時發現之前研究顯示人們在聽取他人意見時會受到他人措詞強度的影響,在對方非常有自信陳述意見下容易改變自己原先的想法。

Read more

公平公正的AI,可能嗎?

在這逐漸自動化的世界裡,許多金融或政府機構已開始利用AI來審查貸款、社會福利、簽證,甚至於職缺應徵資格。但AI就像是一面鏡子,如實地反映訓練集中的資料,也難免透露出背後人類固有的偏好與社會不公,導致演算結果對弱勢族群的歧視,甚至因行政效率的提升,加速剝削的發生。「演算法的公平性與透明性」於是逐漸受到重視,歐盟更試圖將「可解釋AI」編入法律,要求所有「個人化自動決策」(Automated Individual Decision-Making)賦予用戶請求解釋的權利,並確保訓練數據的中立,不得讓任何用戶的權益因此受損。只是,如「黑盒子」般神秘又複雜的神經網路,其判斷依據可能就連開發者都理不清。

Read more