YouTube演算法更新,一場全球線上實驗

分享至

YouTube演算法更新,一場全球線上實驗

撰文/許可

YouTube在2019年更新內部的推薦演算法,調整了影片在推薦清單中的排序策略並解決位置偏差所帶來的負面影響。然而這樣的改變,是否有助於減緩族群的分化與激化,許多專家仍抱持悲觀態度。

推薦演算法是目前發展最完善的機器學習系統之一,它可以根據使用者的網路瀏覽行為分析我們的喜好,以提供更多我們可能喜歡的資訊。其中影響力最大的,無疑是網路流量僅次於Google的影音分享平台──YouTube。對於YouTube官方而言,演算法的目的只有一個:客製化每個使用者的推薦影片,提升使用者滿意度(satisification),延長使用者駐留在平台上的時間(engagement),才能推送更多廣告。

儘管Youtube從未公開其演算法,但由一些Google或前YouTube工程師所發表的研究中,我們得以窺探一二。我們可以將其理解為一個函數,輸入是候選影片的特徵與使用者的基本資料,輸出則是使用者點擊、觀看、按讚,甚至進一步搜尋、評論的機率,將能夠引起使用者興趣的影片排在越前面。不難想像工程師們必須將這類問題轉化為一系列分類(classfication,例如是否會點擊影片)或回歸(regression,例如對影片的評分)問題,最後透過MMoE(Multi-gate Mixture-of-Expert)模型以單一結果來整合所有問題的答案。此處我們可以簡單理解為:給予每個子問題的輸出一個權重並將其相加成為單一值,這裡的權重是可以自由調整的。

位置偏誤

然而單純的推薦演算法存在一項瑕疵:也就是影片在推薦清單中的位置也會反過來影響使用者的行為,這稱為位置偏誤(position bias),是選擇偏誤(selection bias)的一種。具體來說,使用者點擊一部影片的原因,可能是因為真的感興趣,但也可能純粹出於慣性,隨手點選推薦清單最上方的影片觀看,模型難以辨識這兩種情況間的差異。若為後者,演算法的推薦將逐漸偏離使用者的喜好,向舊系統靠攏,形成隱性回饋循環(implicity feedback loop)。這會拉低使用者體驗,進而減少在YouTube上的使用時間。

YouTube工程師們的作法,是在主要推薦模型(主塔)之外加掛另一個模型──淺塔(shallow tower),來記憶影片在上一次清單中的位置,讓清單頂部的影片得到較小的權重,而越往底部的影片則相反。線上即時實驗也證實這樣的策略的確有助於消弭位置偏差所造成的影響。

超大型社會實驗?

不可否認,YouTube的一言一行有其商業考量。推薦演算法為YouTube帶來極大的商業利潤,但同時對公民社會造成許多隱性危機,在近年也引發諸多爭議。

哈佛大學伯克曼網際網路與社會研究中心(Berkman Klein Center for Internet & Society)的專家Jonas Kaiser便在他們的研究發現,YouTube的推薦演算法造就許多封閉的極端社群,並讓使用者處於資訊不對稱的劣勢。對於近期演算法的更新,他表示情況可能更加惡化。YouTube造成群眾的分裂與激進化早已非新鮮事。《紐約時報》的一篇報導便詳細講述一個在後工業化時代長大的西方白人小孩,是如何以YouTube當作發洩管道,並在演算法的推薦下逐漸陷入充滿歧視、仇恨言論的極右社群,成癮並受其洗腦。

陶氏數位新聞中心數位鑑識倡議(The Digital Forensics Initiative at the Tow Center for Digital Journalism)的主任Jonathan Albright也表示:減少位置偏差對於減緩低品質的影片迴圈是個好的開始,但將會「在長遠上助長極端內容的傳播」。「我們成為了YouTube的實驗品。」曾是紐約資料與社會研究中心(Data & Society Research Institute)的網路極端內容學者Becca Lewis如是說。他認為Youtube存在形形色色的社群與內容,每個人使用YouTube的習慣也五花八門,演算法的改變對於事情的走向有太多可能性,對於YouTube自身而言也是無從預料的。

Youtube的其中一位發言人表示,工程師跟產品團隊已經正在致力於減少平台上的資訊濾泡(filter bubble)效應及增加推薦影片的多樣性,也透過問卷、訪談及即時調查來移除特定的極端影片及仇恨內容。只是Youtube官方或是發表研究成果的相關工程師,無意中都將全球上億的平台使用者當作實驗品來測試演算法優化的成果,這些實驗的目標──或說開發演算法的目標──是讓使用者對平台更為「成癮」。而至於實驗本身,在開發、測試使人成癮的演算法的過程中,是否會對使用者產生前述種種危機,更是官方及研究人員長期忽視的問題。因此Kaiser認為,官方應該花更多時間關心演算法對使用者的影響。「YouTube作為營利組織顯然不願意做這件事,儘管道德上有其必要。」Lewis評論道。

 

參考資料

  1. K. Hao, “YouTube is experimenting with ways to make its algorithm even more addictive“, MIT Technology Review, 2019.
  2. Z. Zhao et al., “Recommending what video to watch next“, Proceedings of the 13th ACM Conference on Recommender Systems – RecSys ’19, 2019.
  3. P. Covington, J. Adams, and E. Sargin, “Deep Neural Networks for YouTube Recommendations,” Proceedings of the 10th ACM Conference on Recommender Systems – RecSys 16, 2016.
(Visited 48 times, 1 visits today)

分享至
views