【AI的多重宇宙】UNIVERSE-04 深偽莫測的AI世界

分享至

在當今這個後處理技術發達的時代,「眼見已不一定為實」,各種假消息、假圖片、假影片甚囂塵上,深度偽造的議題已經不容忽視。日前曾發生某知名Youtuber將多位女性公眾人物「換臉」到色情影片事件,有些人認為既然影片是偽造的,當事者就不會受到傷害,但事實上從各個面向來剖析,它造成的傷害層面是遠遠超過我們的想像。社會要因應深偽議題須從許多層面同時著力,唯有透過完善的法律約束、開發更強的防禦技術,並讓社會大眾提升的個人良知與遵守社會的倫理,才能讓科技的發展保持著「促進人類福祉」的初衷。

講者、審定|高雄醫學大學性別研究所 余貞誼助理教授 × 成功大學統計學系暨SOC數據科學中心 許志仲 助理教授

彙整、撰稿|葉珊瑀

 

來源:臺大科學教育發展中心

深度偽造 (Deepfake) 今日多用來指稱變造的影音,用作為傳遞假消息的媒體內容,抑或是帶有性暴力意涵的身體圖像拼接色情影音。針對後者,著名的社會新聞,如Youtuber小玉將多位女性公眾人物的影像「換臉」到色情影音上牟取暴利。本次講座邀請到高雄醫學大學性別研究所的余貞誼教授,以及成功大學統計學系暨SOC數據科學中心的許志仲教授,分別從性別與科技的角度切入,重新檢視深度偽造在現今社會性別化脈絡下的意涵,以及我們該如何應對。

 

深度偽造的迷思
來源:臺大科學教育發展中心

該如何理解深度偽造所造成的性別暴力,社會尚未取得共識。作為被「換臉」的當事人,心中會感到羞辱、被騷擾,然而因為其生成方式不同於過往大眾熟識的未經同意散布之裸照,部分民眾認為既然影片是虛假的,又何來傷害之有?余貞誼教授統整了深度偽造色情影音常見的兩大迷思——

● 第一:「深度偽造是假的,可與真實世界二分,與真實無涉及,不會傷害你真實的身體。

雖然深度偽造影片是假的,但從諸多各國研究中,可以看到它帶來的實質傷害,且受害者不只是遭換臉的主角,當中被置換掉臉部、呈現身體部位的女性(如性工作者)也對自己受拍攝的身體被化作攻擊其他女人的武器感到羞辱。從Bluett-Boyd等人於2023年的研究指出,性侵犯的實質傷害未必要有身體接觸。深度偽造性暴力對於事件中的受害者、加害者,都模糊了傳統線上、線下的界線。對抗女性暴力的澳洲組織Australian Women Against Violence Alliance也指出,深偽圖片即便是由不同女人所拍攝的圖像組成,卻絲毫不減其傷害。從IPSOS MORI於2017的跨國調查中指出,線上騷擾會帶來實質傷害,包含恐慌、焦慮、失眠,甚至會讓人們「自我撤退」——為避免受到更多傷害,只好自我審查,甚至退出線上討論公眾場域。

● 第二:「深度偽造只是性幻想,每個人都有性幻想。如果性幻想可以,為何製作深偽色情影片不行?

這樣的假設性描述中,「性幻想」和「深偽色情影片」彷彿是兩個原子真空般的存在,然而在真實社會中,深偽色情片卻有著性別化的脈絡。在多重行動者體系中,時常看到「男性消費者、生產者、技術物、厭女現象」這些組合,即便男性同樣可能為受害者,但目前過半的案例中,都是男性在消費女體圖像。奠基於這樣的事實之下,深偽色情影片就不再只是單純的性幻想,它讓女人成為被忽略的主體,形成集體貶低女性的文化價值,它的產生本身就是帶有厭女色彩的性別歧視。總結而言,性幻想不只是個人娛樂,當我們將之置放於McGlynn等人於2017年提出的「性暴力連續體」概念下,深偽色情影片同樣屬於性別暴力,它彰顯了社會對女人的性的汙名,透過將女人的臉、身體化為武器,傷害女人的性自主表達。

 

如何因應深度偽造衍生問題?
來源:臺大科學教育發展中心

深偽色情影片議題的因應,可以分為制度、技術、個人認知與社會倫理層面。在制度層面,目前美國部分州份及我國都已將深偽色情影片放在暴力的框架之下,並透過法律加以規範,如我國刑法319-4條妨害性隱私及不實性影像罪。

在技術層面,許志仲教授將其加以分類為主動防禦、被動防禦,其中有些因應的防禦方式不只可以打擊深偽色情影片,對於消弭假消息也有幫助。主動防禦強調在事件發生前自源頭把關,包含上傳照片至公共空間前,先以Deep Privacy的技術將臉部資訊變造,保障個人隱私權,減少個人臉部素材遭濫用的可能;而在照片上追加浮水印的傳統作法可以留下數位線索痕跡,讓變造內容得以追本溯源。被動防禦部分則是在圖像、消息已傳播後,強調透過AI檢測技術辨識圖像真偽。當今檢測技術隨著深度偽造的發展,以及隨之而來的強大後處理技術,仍難以完全辨識影音是否經由變造,然而隨著越來越多研究者投入,檢測技術的能力可望逐步跟上。

個人認知部分,許教授強調,作為社群網絡中的一員,資訊傳遞仰賴每個作為節點的個人。在深度偽造技術發展蓬勃的當代,於社群媒體上傳遞消息以前,應保持著如同接到詐騙電話般的警覺心,透過主動思考評斷傳遞資訊的真偽、傳播的適切性,讓不適合在社群網絡中流傳的虛假消息、傷害性資訊終止。

科技發展中的技術多是中性的,善惡後果往往與操作者的良知有關。針對社會倫理層面,余教授強調,深偽色情影片等議題是技術遭到濫用的後果。AI業界與學界曾提出過「AI for good」的核心原則,包含:「行善、不傷害、自主、正義、可解釋性」,強調AI的發展是應用於促進人類福祉,讓人類仍有選擇的自由,利益共享,不排除特定團體,且AI的發展應掌控於人類理解下,當問題發生,仍有可問責的單位。從這些原則來檢視,深偽色情影片不僅違反了自主、不傷害原則,壓縮了受害者的自主實踐與能動性,它也模糊了責任歸屬,創作者、觀看者仿若不需負責。

 

總  結

深度偽造是技術高度發展的象徵,然而深偽色情影片卻讓我們看見了技術濫用已造成人們實質傷害。因應這樣的社會發展,我們不僅需要制度層面完善的法律來保護個人,需要新的科技來因應這樣的現象,也需要社會中的每位行動者保有良知與倫理,不濫用技術,也讓惡意傳播的虛假、有害資訊於傳播鏈上終止。

眾所期待的Q&A環節|來源:臺大科學教育發展中心

 


精彩花絮

圖左為講師許志仲老師,中間為講師余貞誼老師,圖右為主持人政治大學新聞系方念萱老師|來源:臺大科學教育發展中心

📖 延伸閱讀:《【人物專訪】需要的不是篤定,而是好奇心——專訪余貞誼助理教授》、《【人物專訪】我進入學界,是為了報恩——專訪許志仲助理教授

 

(Visited 103 times, 1 visits today)

分享至
views