新聞、謊言、假影片(4/4)
撰文/Brendan Borrell|譯者/鍾樹人
轉載自《科學人》2018年11月第201期
官兵捉強盜的戲碼
對資訊科學家來說,修正錯誤的方法往往是運用更多資訊科學。雖然修正錯誤相當複雜,不過資訊科學社群的看法是,可以建立演算法來糾舉假影片。
MIT網路政策研究計畫(Internet Policy Research Initiative)的艾德曼(R. David Edelman)說:「針對這個問題,在技術上當然會有進展。」他曾在歐巴馬執政期間擔任科技顧問,對於歐巴馬的假影片印象深刻。「我知道歐巴馬,我幫他寫過演講稿。我看不出真影片和假影片的差別。」艾德曼表示,假影片可以欺騙他,但演算法或許能找出人眼不可見的「臉部活動跡象和數位簽章(digital signature)」。
直到目前為止,解決方法可分為兩種。一種方法是在影片中嵌入數位簽章,以證明為真,就像印刷鈔票時用於防偽的精細標誌、全像片或其他特徵。每台數位攝影機可以嵌入獨一無二的簽章,理論上難以假冒。
第二種是利用偵測工具自動糾舉假影片。對於這類偵測工具,美國國防高等研究計畫署(DARPA)所推動的計畫尤為重要,稱為媒體鑑識(Media Forensics, MediFor)。這項計畫在2015 年啟動;在此之前,俄羅斯的新聞台播出假的衛星影像,顯示烏克蘭的戰鬥機射擊馬來西亞航空17 號班機,後來國際調查人員發現是俄羅斯的飛彈擊落班機。曾任職於MediFor計畫經理的多爾曼(David Doermann)表示,衛星影像並非運用深度學習來偽造,但DARPA看到即將發生的變革,想要找出制衡的方法。
MediFor 採取三種主要策略,都能透過深度學習實踐自動糾舉。第一種是檢查影片的數位指紋(digital fingerprint)。第二種是確認影片內容遵循物理定律,例如影片中夕陽西下是否跟真實世界一樣。第三種是查證外部資料,例如影片拍攝時的天氣。DARPA打算把三種偵測工具統合成一種工具,評估影片造假的可能性。
這些方法可能減少假影片的數量,但依然是官兵捉強盜的戲碼,造假者可以仿製數位浮水印(digital watermark),或建立深度學習工具騙過偵測工具。加州大學柏克萊分校的資訊科學與電機工程教授艾佛羅斯(Alexei Efros)正與MediFor合作,他說:「我們贏不了這場競賽,我們只是讓造假者越來越難偽造。」
達特茅斯學院的資訊科學教授法瑞德(Hany Farid)表示,無論如何,研發這些工具還需耗費幾十年。當製作假影片的技術持續演進,以現今技術唯一的可行方法是,借助法瑞德這類數位鑑識專家。他說:「你能諮詢的對象屈指可數,我是其中一位,但我無法照顧整個網路。」
拯救真相
即使每個人最終都能使用偵測工具檢視網路,謊言與真相之間總有時間差。時間差是社群媒體難以阻止假影片散播的原因之一。艾德曼說:「假影片的來源與散播同樣是問題。如果網路上出現一部『深度造假』影片,沒有人會注意,除非推特和臉書不斷瘋傳。」
在遏止假資訊瘋傳方面,社群媒體公司的法定義務尚未訂立,或是我們能否在不侵犯言論自由的情況下監管整個產業。2016 年美國總統大選之後10 個月,臉書執行長祖克柏(Mark Zuckerberg)終於承認臉書是散播假新聞的平台之一。畢竟,臉書就是想要使用者不斷瀏覽並傳播訊息,會優先呈現受歡迎的內容,而非真相。臉書每個月有20 億個活躍使用者,對於任何想要以假資訊點燃輿論的人來說,臉書就是引火之物。
在那之後,祖克柏答應採取行動,卻把責任推卸給使用者,要求他們評比新聞來源的可信度(有人認為這是逃避責任),並打算利用AI來糾舉假資訊。臉書對AI糾舉假資訊的細節三緘其口,一些資訊科學家懷疑這類AI方法,包括法瑞德,他認為這項承諾「天真得可以」。一直以來,很少有科學家能獨立研究假新聞如何在臉書上傳播,因為多數相關資料長期不公開。
如果發展AI生成影片工具的研究人員沒有周全設想產品用途,以及人們會如何使用甚至濫用,那麼全世界所有的演算法和資料也無法拯救我們、避免假資訊肆虐。波西利說:「這是我的請求,做這些研究的科學家必須跟心理學家、政治學家和傳播專家合作;心理學家、政治學家和傳播專家已研究這些議題許久。」這類合作一直很罕見。
就在今年3月,芬蘭人工智慧中心宣佈一項計畫,邀請心理學家、哲學家、倫理學家等幫助AI研究人員思索AI研究廣泛的社會意涵。4月時,波西利和哈佛大學政治學家金恩(Gary King)共同發起了社群資料計畫(Social Data Initiative)。史無前例,這項計畫讓社會科學家能取得臉書資料,研究假資訊的傳播。
當上層處於責任真空,根除假影片的責任便落在記者和大眾身上。歐巴馬和皮爾在「深度造假」影片的尾聲,齊口說:「勇往直前,在網路上看見我們信任的對象必須更加警覺。是時候,我們需要可靠的新聞來源。」這段影片或許造假,但所言甚是。(完)
(本文由教育部補助「AI報報─AI科普推廣計畫」取得網路轉載授權)