眼見不為憑:假新聞攻防戰

眼見不為憑:假新聞攻防戰

編譯/葛竑志

深度造假?

「身處在這樣的一個時代,我們的敵人可以讓任何人說出一些他從沒講過的話。」鏡頭前,美國前總統歐巴馬語重心長地說道:「嗯……就像是『川普總統是個不折不扣的笨蛋』。」這段今年(2018)四月被上傳到YouTube上的影片,最終透漏令人訝異的真相:影片中說出這席話的,並非歐巴馬本人,而是AI產生、栩栩如生的假影像。

這種AI模型有個相當直白的名字—深度造假(Deepfake),指的是那些以偽造為目的,利用深度學習完成的影像合成技術。其核心技術採用最近頗為盛行的對抗生成網路(generative adversarial network,GAN)。如同這部影片,喜劇演員Jordan Peele的樣貌和聲音為原型,在送入模型後,以歐巴馬的面貌說出一些引發爭議的話。近年來已有不少名人的臉被用作題材,並散佈於網路上。這些看似無足輕重的八卦素材,卻也是個助長假消息散播的利器。

尋找破綻

「剛開始看覺得沒什麼問題,但仔細看之後會覺得不太對,但也說不出奇怪的地方在哪。」這是一位紐約州立大學奧爾巴尼分校的電腦科學家Siwei Lyu,看過Deepfake影片後的感想。他接著回想起學生時代玩過的瞪眼遊戲,影片裡的人和當時的對手如出一轍:完全不眨眼,一種異常但細微的行為特徵。

仔細回想,訓練這種模型需要相當多的影像資料,但有多少自拍照是在閉眼時拍攝,又恰好捕捉到眨眼的瞬間呢?而這或許就是Deepfake可能的弱點之一:因為其無法模仿那些訓練資料集中從未出現過的表情與動作。Lyu也發現:人所表現的正常生理特徵和情緒,舉凡說話的語氣、呼吸的頻率等,也是神經網路難以駕馭、模擬的。這些看似無關緊要的細微之處,反而成了辨別Deepfake真偽的關鍵破綻。

道高一尺,魔高一丈

但就在Lyu利用這項發現,開發出一套能偵測偽造影片的模型,並將研究結果公布不到一週後,有個匿名信件就向他們分享了一部影片[1]。影片中,AI 產生的人臉竟然能正常地眨眼。Lyu坦承,只要釐清Deepfake的問題點,餘下的其實只是時間的問題。最終可能淪為GAN裡頭的生成器(Generator)與鑑別器(Discriminator)間無止境的軍備競賽。「但只要能提高影片造假的難度與技術門檻,那麼也不失為一種突破。」

見微知著

美國國防高等研究計劃署(Defense Advanced Research Projects Agency,DARPA)為了因應假訊息,於2016年推動了一項「媒體鑑識計畫」(Media Forensics Program,MediFor),希望開發出能辨別影像真偽的AI,供情報人員在第一時間判斷情報是否可信。

第一個切入點,是藉由數位指紋(Digital fingerprint)評估影像是否源自於一台真正的相(攝影)機。正因多數電腦無法完全仿造經過透鏡自然成像的影像,只要善加考究相機模型和影像壓縮方式,都有機會篩選出來。

其次則是觀察畫面中的物體是否具備合理的物理特性,例如:特定光照條件下,金屬和玻璃應有的反光或倒影,以至於物件該有的紋理都在考量範圍之內。

最後,「語義」判定,例如畫面中所呈現的時間、地點、天色、天氣,甚至是人潮、車流等背景資訊,是否符合已知的觀察與紀錄(如天氣觀測紀錄),都有可能成為重要的線索。

稀疏編碼

無獨有偶, Los Alamos國家實驗室也在一年後推動了鑑別假訊息的研究。該機構的網路科學家Juston Moore表示:普通的Deepfake模型需要大量圖形的訓練才能有不錯的表現,這也是為何模仿目標清一色都是公眾人物的原因之一。無論模型再怎麼厲害,還是受限於資料庫的大小與內容。不足之處,往往得仰賴重複的圖形結構來補足。

因此,Moore分別對真假影片做稀疏編碼(Sparse Coding)處理,這種方式能夠將影像以各種基(basis)的組合向量表示,並各自建立起真影片與假影片的「字典」[2]。若要判斷一部影片是真是假,只要將它做同樣的稀疏編碼,再與「字典」做比對,就能提供影片真實性的參考了。

眼見不為憑

可能有人會感到疑惑,為何前身致力於美國核武研究的Los Alamos如此重視假信息?事實上,情報的真偽同樣關乎國家安全。Moore說道:若有一張衛星影像顯示鄰國正在進行核武部署,那麼指揮官在決定是否按下飛彈發射鈕前,更應該確認情資的真偽。DARPA計畫經理Matt Turek也預期,在不久的未來,假消息不再局限於單一的照片或影片,若有心人士欲操作特定話題,只要巧妙地安排一連串的消息和發佈時序,都很容易憑空創造出令群眾信服的假證據,而這已不再是陰謀論者的天馬行空而已。

不久,我們都可能被迫對所有的電子紀錄感到存疑。當然,就群眾心理的角度而言,人們本容易因個人傾向,選擇片面相信自己想相信的事物。但這些研究計畫,還是希望設立某些標準,或以自動化模組替媒體把關。畢竟,當假消息氾濫到足以影響政治或法律決策時,恐怕都為時已晚了。

 

編譯來源

S. Scoles, “These New Tricks Can Outsmart Deepfake Videos – For Now,” WIRED, 2018.

參考資料

  1. Y. Li, M.C. Chang and S. Lyu. “In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking.” arXiv.org, 2018.
  2. H. Lappalainen, “A computationally efficient algorithm for finding sparse codes.” Master Thesis, 1996.
views