防堵極端主義 臉書能做什麼

防堵極端主義 臉書能做什麼

編譯/黃柏瑋

小圈圈會議

每個星期二的早晨,數名Facebook員工聚在總公司的玻璃會議室中,討論出將會影響二十億臉書使用者的貼文管制原則。這些人幾乎都是年輕的律師和電腦工程師,試圖將複雜的現實道德問題簡化為淺顯易懂的是非題,透過特定關鍵字或符號篩選出有疑慮的貼文。

《紐約時報》記者Max Fisher日前公開一份Facebook內部的貼文管理準則,其中對仇恨言論(hate speech)的定義如大雜燴,充斥著兩百多條艱澀的專業行話,還有一系列政治黨派與人物的名單。其中不乏偏頗或錯誤的判斷標準,例如印尼一場為火山罹難者舉辦的慈善募款活動便曾被Facebook強制移除,只因其中一家活動贊助商曾被列入黑名單。

此外,文件也未能及時更新、定期檢討。舉例來說,臉書在針對巴爾幹半島地區2016年版的指引中,將有「波黑屠夫」之稱的Ratko Mladic標註為「逃亡中」,其在失勢後仍備受國內極端民族主義者推崇。然而,事實上他早在2011便被捕入獄,並於海牙前南斯拉夫問題國際刑事法庭受審。

各國政府的參與與施壓,也會影響這份指引的寬鬆程度。例如,德國政府積極管控社群平台上的仇恨言論,Facebook因此得以阻止許多極右派團體將自家產品作為傳播仇恨言論的管道;但在語言、歷史與文化高度重疊的鄰國奧地利境內,卻只攔下一個組織。此外,Facebook的管理政策也傾向配合當地政府,這在民主體制相對脆弱或民族主義正盛的國家中,反而成為壓制少數族裔發聲的共犯。

不專業的外包商

這份看似急就章的指引,被彙整為簡報檔或試算表,發送給全球15,000位外包商,由他們擔任起臉書糾察的任務、實質篩選貼文。外包商的員工則多來自人力成本相對低廉的國家,也未曾受過足夠的專業訓練,只能仰賴Google翻譯應付每天上千篇的貼文。平均每篇貼文只有短短數秒的反應時間。

機械式的管理與按件計酬的計薪方式,外包審查員缺乏自主判斷與向上級反應指引中錯誤的動力;即使明知所審查的貼文可能引發連鎖效應,但只要指引未有明確要求,便睜一隻眼閉一隻眼。而對於外包商的管控與監督,Facebook不能也不願有所作為:除了外包體系盤根錯節,難以實際掌握每個審查員的表現,Facebook也需要仰賴他們拓展當地業務,更遑論出錯時,能有一隻現成的替罪羊。

反求諸己

然而Facebook最棘手的問題,或許正是自身使用的推文演算法。這類演算法旨在將已受到許多關注的貼文推送給更多用戶,而煽動性貼文本身便具有這樣的性質。Facebook必須在規則的兼容性與判斷的精確度之間取得平衡,前者會牽制審查員的行事效率,而後者會影響篩選的可信度。

Facebook也應正視自身對於社會的影響力,在編寫或修正指引時避免僥倖。當某些事件發生,Facebook便應該檢討核心的漏洞並進行修正,而非粗淺地做些微調再靜觀其變,這就像邊開邊修理飛機一樣冒險。

或許正如Facebook經理Monika Bickert所言:「我們每天有上億則貼文,潛在的危機源源不絕。在這樣的規格之下,就算我們有百分之九十九的正確率,錯誤判斷的數量還是相當可觀。」也正因如此,在未來的五至十年,AI將逐漸參透人類的語言,審查員也勢必由現在的人類轉向由機器擔任,若目前的問題沒有一個圓滿的解答,社群平台對人類社會的負面影響將令人難以想像。

 

編譯來源

M. Fisher, “ Inside Facebook’s Secret Rulebook for Global Political Speech”, The New York Times, 27 Dec 2018

參考資料

G. Lichfield, “Facebook’s leaked moderation rules show why Big Tech can’t police hate speech“, MIT Technology Review, 28 Dec 2018

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

(Visited 1 times, 1 visits today)
views