【人物專訪】「演算法」有罪?激發無限思考的哲學辯證之路——專訪顏均萍兼任助理教授

分享至

【AI的多重宇宙:性別X文化X社會】系列講座
AI 的偏見與歧視 1/7 (六) 14:00

訂閱 CASE YouTube 鎖定直播 開啟

東吳大學哲學系 顏均萍 兼任助理教授|來源:講師提供

採訪、撰文|李 密

審定|顏均萍

 

「論證的核心就是給理由。你為什麼贊成?為什麼反對?」一頭亮麗藍髮的顏均萍,暢談之間的眼神總是犀利,講話語調雖輕柔,卻句句擲地有聲。起於高中一堂哲學講座,講師不經意的一句話,讓顏均萍驚喜發現哲學在答辯之間激發的火花,自此踏上一條反覆辯證的旅程。

哲學系教會我的事:學會問「好問題」、給「好理由」

聯考時代,就讀普通高中的顏均萍,平時較沒有機會接觸到大學科系,因此並未對未來有太多想像。直到某日週會,一位講授道德、政治哲學的教授前來演講,內容提到許多顏均萍以往從未省思過、總認為是理所當然的生活瑣事時,剎那間,激發她對哲學的好奇心,「感覺他講出來的話都很有意思。」於是,她毅然決然進入台大哲學系一探究竟。

然而大學生活起初並不如想像中如意,充斥著一堆必修課的大一、大二,在載浮載沉的迷惘中顯得略微無趣。直到修了系上一位從牛津回台的老師所開設的一組分析哲學課程,老師要求學生必須在每周上課前,閱讀指定教材後自行撰寫作業,課堂上老師再與同學們一起討論作業中的問題。 

不同於以往的全新教學方式讓顏均萍備感壓力,不過也因為這堂課促使學生在課前先行思考、提問,也讓她發現哲學的核心就是學會問「好問題」、給「好理由」,而這往往比問題的答案更重要。 

在課堂上一來一往的辯證過程中,顏均萍認為就是在培養現今公民最需要也最缺乏的思辨能力,「老師會逼你講出一個理由,再問你的理由能說服他人嗎?」她強調我們做任何決定都有根據,而哲學課堂中的思辨,就是在教導學生分辨「理由」是否有道理,同時也學習容納更多的聲音與想像力。

 
AI再製偏見?不過是反映社會真實面

當提到將AI演算法在預測警務上的應用時,顏均萍強調這是一個人類與AI的合作。在2008、2009年時,美國警局的預算緊縮,於是開始引進AI科技,希望能以更有效率的方式調動警力來預防犯罪,以最早一批參與這項變革的城市之一芝加哥為例,警方希望透過演算法預測轄區內最可能涉及暴力犯罪的市民名單,讓警方可以針對這些目標採取行動,降低暴力犯罪發生的可能。

不過,這份名單被發現排名最前的有八成以上是黑人男性,而當地黑人男性的比例卻只占全市的百分之十五。這樣的發現隨即引發種族主義的撻伐與指控。「我們必須瞭解數據的來龍去脈。這個名單預測的是潛在的加害者與潛在的受害者,而根據警方的統計,當地近達八成的槍擊案受害者是黑人男性。」顏均萍強調,演算法列出的名單其來有自,我們更應該要問的是為什麼黑人男性涉及槍擊案的比例如此之高?當地社會網絡究竟出了什麼問題?

「AI就算很準,也不一定可以降低犯罪率。」顏均萍提到, AI預測的結果本身並不會降低犯罪率,還需要警方根據這結果採取有效的干預措施,警方干預的用意是希望透過改善高風險人群的社會網絡與處境以減少他們再次涉案的機會。在拿到AI預測的名單後,轄區的警察會偕同社工親訪名單上的民眾,除了告知他們現在被列在這份名單上外,也會嘗試根據當事人的需求媒合政府與民間的各種社福資源。

警方的干預措施要發揮效用,除了要有一套完善的標準作業程序(SOP)規範各個環節之外,也需仰賴社區的配合,在警民關係緊張的社區,就會是比較大的挑戰,這並非是單單運用AI演算法、列出可能涉案名單就可以解決的問題,事實上,當我們在評估演算法的效益時,也需要將這些這些統整警方內部執行程序各個環節的工作與成本計算進去。台灣未來如果也有興趣將這樣的技術應用在預測警務上,必須要通盤考量、做好評估。

 

✨同場加映:【人物專訪】AI 倫理領域的哲學家——專訪甘偵蓉博士

 


AI的多重宇宙:性別X文化X社會系列講座第二重《AI的偏見與歧視》
(Visited 107 times, 1 visits today)

分享至
views