【人物專訪】AI 倫理領域的哲學家——專訪甘偵蓉博士

分享至

【AI的多重宇宙:性別X文化X社會】系列講座
AI 的偏見與歧視 1/7 (六) 14:00

訂閱 CASE YouTube 鎖定直播 開啟

清華大學人文社會AI應用與發展研究中心 甘偵蓉 博士後研究員|來源:講師提供

採訪、撰文|葉珊瑀

審定|甘偵蓉

 

自社會關懷出發,奠定人權研究基礎

甘偵蓉博士於博士階段前的學科養成,都在哲學系所完成。回頭想來個人的研究關懷,總不脫離社會議題。相比於第一線抗爭者,她從小更偏好思考社會現象背後發生的起源。哲學思辨重點通常不僅限於最終立場是贊成還是反對,而是更偏好釐清問題背後的概念及論述理由,不同的哲學理論在於提供不同的思考框架,正中她的喜好。而甘博士選擇人權哲學理論與國際正義作為研究主題在於,這比較符合她喜歡思考規範理論如何有助解決或思考現世問題的研究傾向。

 
以研究倫理作為人權理論的實踐

甘博士畢業後因緣際會下至成功大學人文社會科學中心從事人類研究受試者的研究與政策實務推動工作。理論與實務的初接觸,讓她滿是期待,卻也遇過衝擊。以研究倫理四原則為例,這是她熟稔的理論,但在實務場域上,該如何適用、實踐,卻有困難。什麼樣的充分理解才算是知情同意,而不只是簽署同意書而已?透過認識經驗科學研究者的各種研究實作,了解不同學科的研究宗旨及方法差異,並在理論原則和實作之間來回思考,是甘博士在這段時間最大的學習,深刻體驗何謂當代政治哲學名家約翰·羅爾斯所說的在理論與現實案例中「反思均衡」(reflective equilibrium)。

為推動研究倫理實務,她曾至密西根大學受訓。從交流過程,她看到研究受試者審查步向法制化的利與弊。法制化的好處,是解決以人類研究實作現場的各種亂象,讓受試者的人權獲得保障,但法制化過程也難以避免將美國制度移植台灣、將醫學研究實作移植人文社會領域的危險。若沒有對於當中的差異性多加思考,所造成的影響是深遠的,像是各學科可能為適應審查制度,而逐漸放棄部分的研究實作方式或特色。這讓甘博士爾後在思考新科技研發的倫理問題時,傾向多花時間了解爭議與釐清實作上的差異,並尋找共通的行為規範基礎,而非立即訴求有強制性的法令規範之研究傾向,有很大影響。

 

哲學倫理與AI科技的火花

甘博士兩年前轉至清華大學動力機械工程學系,主要是進入擅長基因演算法設計的丁川康教授所主持的實驗室,由於丁教授當時正在執行AI倫理學的國科會計畫,以經典的哲學思想實驗電車兩難切入,擬透過演算法來模擬常民道德,甘博士希望在實驗室觀察AI研究人員如何設計演算法,以及在設計過程中的各種考量。她發現相較哲學領域在乎問題為何被提出及解決問題的理由,AI技術人員更重視要如何解決問題及解決成效,諸如一個解方能省去多少時間與運算資源、提升多少準確率等。技術領域如此務實的目標導向思考,對於不論是思考哲學還是倫理議題都著重過程導向的甘博士來說,帶來很不樣的思考刺激。

今年春夏,甘博士至設立在牛津大學哲學系的 Uehiro Centre for Practical Ethics移地研究,期間同時參與也設立在哲學系下的Institute for Ethics in AI舉辦的講座及研討會。牛津大學素來以英美分析哲學重鎮聞名,而前述兩研究中心的特色,都是以哲學家為主,針對當代社會議題提供哲學面向的分析、概念釐清、論述,甚至可行的規範解方。在AI倫理議題的討論上相當多元,像是AI應用在臨床及精神醫學等領域的倫理問題、AI之於工作的影響、數位助理對個人隱私界線的挑戰與改變、AI運作的道德責任、甚至還有以亞里斯多德或霍布斯學說來反思目前人類與AI的關係等。

AI所帶來的影響及改變,不只在產業應用,而是涉及生活各個層面,相關倫理討論是否可以更多元?人社學者如何更積極參與AI發展及回應挑戰?諸如這些思考,讓甘博士回國後不但有空就撰寫AI倫理科普文,如:LaMAD事件的哲思AI人權與倫理的挑戰個人隱私在AI時代的風險,也積極協助清大人社AI應用與發展研究中心推動公共化AI工作。

 
講座搶先看——人工智慧的偏見與歧視

本次講座主題,甘博士將以演算法偏見的定義、出現的原因、以及可能如何消弭或避免歧視再現等,作為三個切入方向。

針對演算法偏見(algorithmic bias)的定義,甘博士分為「狹義」與「廣義」,狹義是指演算法對於資料、特定群體、特定預測或決策結果有所偏差或傾斜,此時bias就如同統計上所討論的偏誤/偏差是屬於中性詞;廣義則包含AI在應用時對特定群體造成系統性的不利,而那些不利難以用公共倫理等民主社會價值去合理說服,此時bias屬於負向詞,幾乎等同於歧視或不公平對待之意。甘博士認為從現實世界所蒐集到的資料一定有偏誤,這些偏誤,甚至是不同的演算法能夠在特定辨識領域勝出的關鍵。當這個偏誤造成不利,才需要指出其有害之處。

對於消弭歧視的方式,甘博士認為「透明化」、「公共參與」、「信任機制」是三大重點。以自駕車決策為例,用路人會希望演算法的設計及決策結果可以更透明,包含其是以何種資料訓練模型、決策時考量哪些特徵、什麼人是決策結果的不利對象等。不論是否涉及決策倫理兩難,只要相關決策涉及多方用路人利益,就需要適時納入公共參與的討論及意見。這麼一來就能提升公眾對於自駕車在決策方式及結果的認識,有助於公眾對於這類AI技術與產品的信任程度。普羅大眾對於人工智慧,多半抱持又愛又怕的心態,覺得它能提供莫大幫助,卻又擔心自己蒙受不公平對待。當信任機制不存在,一切都可能被惡意解讀。

具體來說,或許建立AI模型卡機制,透過像是食品商標的成分列表,將模型所使用的資料特性與擅長預測事項明確揭露,或是建立演算法風險評估(Algorithmic Impact Assessment, AIA)步驟等,在蒐集更多AI開發過程與應用的倫理及風險態樣等實證資料後,未來或可建立類似FDA這種事前審核與上市後監管或查驗的單位,以降低AI對於人類社會、特定群體及個人甚至環境等所帶來的負向影響。

 

✨同場加映:【人物專訪】「演算法」有罪?激發無限思考的哲學辯證之路——專訪顏均萍兼任助理教授

 


AI的多重宇宙:性別X文化X社會系列講座第二重《AI的偏見與歧視》
(Visited 895 times, 1 visits today)

分享至
views