從羅興雅到軍政府政變 TikTok正在緬甸重蹈Facebook的覆轍

分享至

從羅興雅到軍政府政變 TikTok正在緬甸重蹈Facebook的覆轍

編譯/許守傑

歷史重演

2021年2月1日,緬甸軍方發動政變,推翻好不容易成立的民選政府,引發各地大規模示威。軍方以武力鎮壓回應民意,造成示威者死傷,將整個國家推入更大的衝突中。與此同時,緬甸年輕人愛用的社交平台TikTok,卻開始出現大量與軍政府相關的短片。有些毫不掩飾地表達對軍人的同情,並合理化軍方的殘酷行徑;有些則是散佈錯誤訊息,用以混淆、分化示威者,造成內鬨;更有甚者,揮舞著槍支以死亡恫嚇年輕人不要上街示威。

然而,面對暴力威脅與錯誤訊息激增,TikTok顯得毫無防備,直到三月初才開始著手刪除相關短片,而且執行速度緩慢、標準又不一致。TikTok的反應在外界看來顯得格外諷刺──因為早在2016年針對羅興雅人的種族清洗運動中,Facebook就曾因為未能及時刪除平台上的仇恨言論而被外界撻伐。聯合國人權專家更直接了當地表示:當時那些未經查證的仇恨言論,對於緬甸少數民族的種族滅絕起了「決定性」的作用。TikTok很明顯未曾從Facebook的前例中學習到任何教訓。

盲目追求自動化的後果

接連兩次事件,突顯出當前網路社交媒體一個系統性的問題:平台用量在世界各地大幅成長,但企業監管當地平台內容的能力卻沒有跟上。緬甸5,000萬人口,有1,800萬人是Facebook的活躍用戶。也就是說:那些錯誤訊息和仇恨言論,以迷因、哏圖、一字多義的方式深藏在當地的海量訊息中。這些跨國科技公司顯然沒有準備好如何應對與母國有著迥異文化的使用者。一旦發生動盪,第一時間只能束手無策。

追根究柢,這一部分來自於科技的傲慢,一部分來自於社群媒體唯利是圖的商業模式。網路時代下,社群媒體流行著「演算法無所不能」的迷思,但以羅興雅人事件為例,只有徹底了解當地社會與文化的人,才能很快看懂並從中挑選出問題言論。在相關技術尚未成熟的前提下,這些企業仍然以拓展用戶為核心目標,理所當然造就了現今這番局面:所有人都在賭,賭有一天可以開發出「放諸四海皆準」的演算法來掌握目前只有人類才能勝任的工作,也賭自己不一定會那麼倒楣遇到類似的社會衝突。昨天是Facebook,今天是TikTok,明天或許又是另一個新的App。

從錯中學

不過一切似乎沒有那麼悲觀。2020年,Facebook嘗試了一套新系統,同時擴編當地工作人員,並授予緬甸的非營利組織和事實查核夥伴更高的權限,用於識別並刪除與大選有關的錯誤訊息,得到了緬甸民間團體的高度讚揚。只是稍嫌諷刺的是,Facebook先前的失敗,卻也造就了仰光(緬甸第一大城)健全的數位權益生態──緬甸科技社群發展出一套獨特的「打假攻略」,利用Facebook的平台介面標記假消息或仇恨言論,效率甚至比Facebook內部來得高。

相較之下,TikTok則幾乎還處於摸索階段──沒有和本地組織合作,甚至完全沒接觸到當地的網路社群。民間團體緬甸資通科技促進發展組織(Myanmar ICT for Development Organization,MIDO)執行長Htaike Aung表示:「我們不知道[TikTok]是誰,也完全不了解它們在做什麼。」雖然ByteDance(TikTok母公司)也在2020年12月下旬(緬甸大選後一個多月)積極招聘具緬甸語能力的員工以即時處理問題內容,但若要避免重蹈2016年Facebook的覆轍,顯然TikTok還必須有更多行動。

編譯來源

參考資料

  1. Schwartz, “The trouble with scale”Rest of World, 2021
  2. BBC Trending, 自由世界裏失控的仇恨 Facebook緬甸野蠻生長史BBC, 2018.

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

(Visited 36 times, 1 visits today)

分享至
views