讓AI不犯錯

分享至

讓AI不犯錯

撰文/Charles Q. Choi|譯者/鍾樹人
轉載自《科學人》2018年4月第194期

當人工智慧(AI)系統變得普及,出錯造成危險後果的機率也就大增。例如,美國麻省理工學院(MIT)的科學家最近誤導谷歌訓練的AI程式,讓它把塑膠玩具烏龜當成步槍。如果未來的機器警察或士兵犯下這類錯誤,後果可能會是悲劇。但研究人員正在研發工具,從構成這類系統的幾十億個虛擬「大腦細胞」中找出潛在缺陷。

很多影像辨識程式、汽車自動駕駛和其他用途的AI,運用的都是人工神經網路;研究人員輸入資料給所謂的「人工神經元」 ,它們藉此協助解決問題,例如辨識路障。人工神經網路的「學習方式」是不斷調整人工神經元之間的連結,一再設法解決問題。一段時間之後,人工神經網路判斷哪些人工神經連結模式能算出最佳解決方案,接著採用這些模式進行預測,此乃模擬人類大腦的學習方式。

這項技術的重大挑戰在於,研究人員通常不知道人工神經網路如何算出最後答案。哥倫比亞大學的資訊科學家楊峻峰(Junfeng Yang)表示,一旦人工神經網路發生錯誤,研究人員很難知道哪裡出錯;去年10月他在中國上海的研討會共同發表了一篇新論文。

楊峻峰和所屬的研究團隊研發出DeepXplore,這套程式藉由AI學習過程的反向工程,幫AI系統除錯。DeepXplore輸入各種雜亂的真實數據來測試人工神經網路,在它出錯的時候告訴它,便能自行修正。例如,DeepXplore可以判定攝影機影像是否會讓汽車駕駛AI系統出錯、導致汽車沖向行人。這套除錯程式也監控人工神經網路中哪些神經元正在運作,並且逐一進行測試。楊峻峰表示,先前的AI除錯程式無法判斷每個人工神經元是否已經進行錯誤檢查。

DeepXplore測試15個最先進的人工神經網路(有些用於自動駕駛車或電腦惡意軟體偵測)之後,發現數千個先前程式沒找到的錯誤。它讓AI系統的整體準確度平均提升1〜 3%,某些系統甚至高達99%。芝加哥大學的資訊科學家盧山(Shan Lu)評論,DeepXplore的技術能幫助研究人員打造「更準確且可靠」的人工神經網路;她沒有參與這項新研究。盧山補充說,這套方法也將嘉惠許多科學研究領域以及我們的日常生活。

(本文由教育部補助「AI報報─AI科普推廣計畫」取得網路轉載授權)

(Visited 18 times, 1 visits today)

分享至
views