【探索26-9】AI能審判人類嗎?
講者|臺灣大學法律學系教授 黃詩淳教授
彙整撰文|徐曉陽
審判的目的於在解決糾紛,維護或者恢復社會秩序,所以審判的一個重要特質是:「辯是非,明善惡」。又因為審判本質以權威為基礎,故而人們願意信賴審判結果。
如今AI應用於司法上的例子,有輔助裁判的初步嘗試,譬如美國部分州計算再犯分數的「COMPAS」系統,台灣司法院的「量刑趨勢建議系統」,也有更加前衛的設計,例如愛沙尼亞尚完成的機器人法官。但,AI 能夠審判人類嗎?要回答這個問題,我們需要思考兩個層次:首先是 AI 在技術上「能否」做出好的判決;其次是如果 AI 能做到前者,又「應否」讓其審判人類。
●AI 「能否」做出好的判決?
1、什麼是好判決?
好的判決,需要判決結果正確,判決理由適當。一些分析者僅關心前者,即機器能多大程度的預測訴訟結果,但法律資料分析(legal analytics),是對有價值法律資的發掘、詮釋和溝通的過程,不僅要關注機器能否給出答案,更要關注,機器是否可以給出它如此決策的理由,如此方可判斷其結果是否合理正確。
2、如何打造AI判決系統?
那麼如何建立一個 AI 判決系統?有四個步驟:資料蒐集、建立模型、預測以及應用。接著以台大法律資料分析研究室團隊的成果:「父母離婚後的子女親權酌定裁判預測系統」為例,闡述這些步驟,這套系統可以分析父母離婚後,誰會獲得未成年子女的親權。
【資料蒐集】先蒐集並分類大量的判決、找出關鍵因素並予以標記。將巨量資料(big data)轉化為可計算的資訊。我們蒐集了2012-2014年間地方法院共540件裁判(後續更新到2017年);採用其中448件(82.96%)結果是單獨親權的裁判建立模型,其餘共同親權、分別親權案件因件數過少難以被模型描述而捨去。特徵選用民法第1055條之1第1項各款例示的「法官應注意事項」,以及過去學者所提倡的應注意事項,共計22項;將以上案件事實的特徵事項透過標記,轉換為可以計算的數據。
【模型建立】使用機器學習(machine learning)演算法,找出判決的pattern。
【預測】給機器未見過的案子,看模型預測的效能如何。
我們以上述蒐集的資料集的80%作為訓練集,給予正確的目標值,用於訓練模型,模型代表了「過去多數法官」的思考模式。其餘的20%作為測試集,不告知正確目標值,要求機器用已經建好的模型來預測目標值。
我們最先使用了人工神經網路演算法,準確率高達98.55%,但缺點是無從得知機器的決策細節,也無法判斷哪些特徵才是重要特徵。為了提高可解釋性,又使用了決策樹演算法,準確率95.2%稍低,但從節點可看出,子女主要照顧者、親子互動、子女意願三項是法官更看重的特徵。為了探索個案中的重要性因素,又使用了梯度提升法,準確率95.7%左右,可以得到在個案中機器是如何依照模型得出最後的計算結果,也就是使機器說明了自己的思考過程。
但以上的作法,仍須將裁判的文字透過人工閱再讀轉換為上述22項特徵的數值資料,需要投入大量人力,於是我們進一步使用文字探勘結合監督式學習,略過人工標記的步驟,讓機器直接學習裁判書文本。最後結果的準確率在77.25%,F1-score 86.7%。當加上了人工標記的「原告/被告是父/母」之資訊後,準確率和 F1-score 均提升 2 個百分點左右。
【應用】為效能好的模型設計使用介面,提供給法律人使用,作為決策參考。
我們使用了好幾種模型,哪些更好呢?如果我們要的是「判決結果正確」的系統,那麼演算法的準確率或許重要;如果我們要的是「判決理由適當」,則演算法的可解釋性、透明性更重要。
3、AI有能力做出好判決嗎?
上述過程中,AI無法評價證言與證物之證據力,現階段也尚不能以各個證據為基礎來判斷事實,能做到的只是整個審判過程中的法律適用環節的預測。對於這一部分,AI 可以做出某程度正確的判決結果,但相當取決於資料品質。
●應該讓AI 擔任審判者嗎?
假使未來AI 技術可以突破以上的限制,能夠做出好的判決,AI 能否擔任審判者,也猶未可知。
其一是審判係以權威作為基礎,且權威與信賴並非完全來自於「能做正確的決定」。即便AI能比人類法官做出更「正確」的判決,人民會對其抱持與人類法官相同的信賴嗎?
其二是審判行為是以「審判者與被審判者具有同質性」為前提,審判者和被審判者都是成熟的人類,我們是否已承認AI跟人具有同質性?
其三是若 AI 做出了錯誤的裁判,我們應當如何咎責?
目前階段能做到的是,導入AI以人機合作等方式,減輕法院負擔,或許也可能提高人民對司法信賴。即使未來開放AI法官,可能也會限於某些情境或特定類型案件,例如文書生成、量刑輔助、損害賠償金額計算、扶養費金額計算、過失比例認定等。至於AI自動決策的救濟,也許可以要求說明決策理由,或者容許個人拒絕AI決策,只接受人為決策等方式。
(本文為教育部「人工智慧技術及應用人才培育計畫」