走出同溫層
編譯/陳宣豪
推薦系統
使用推薦系統的業者,真正目的在於加快消費者的資訊搜尋速度、提升用戶體驗,讓他們更容易看到自己有興趣的內容,並以客制化的個人優惠,來強化消費者的購物衝動。推薦系統之所以能這麼做,主要依賴兩種常見資訊:一是特徵訊息,包含項目(分類、關鍵字)和用戶的特徵;其次,則是用戶與項目的互動訊息,包含感興趣的關鍵字與物品種類、購買歷史紀錄及評價等。因此基於所使用資訊的不同,可分為:使用特徵訊息的基於內容系統(Content-based systems)和使用用戶與項目互動訊息的協同過濾系統(Collaborative filtering systems)。
前者是假設若某使用者過去對某項目有興趣,那麼未來也會對該項目有興趣。因此系統會將類似項目,依據功能分類,進行推薦,並且參考用戶特徵與社交行為等資訊。
後者則假設如果甲用戶喜歡項目A和項目B,而乙用戶喜歡項目A的話,那麼乙用戶也很有可能會對項目B感興趣,於是將其推薦給乙用戶。系統同時也會根據歷史瀏覽紀錄來預測用戶新的互動行為。
同溫層
Netflix和YouTube運用推薦系統來推廣最新的節目和影音、Google和Facebook則利用搜尋熱度將新聞報導排名,推薦系統雖然提供了許多便利,卻也產生一些副作用,尤其所謂「迴聲室」和「過濾泡泡」現象。
過濾泡泡(filter bubble)是指當網站演算法依據用戶資訊、位置、過去點擊及搜尋瀏覽紀錄,主動預測並提供用戶有興趣的資訊內容、排除與用戶立場相左的資訊,無形之中使用者就像被隔離在泡泡中,只能接觸到與自己立場或意識形態相同的人事物。
迴聲室(echo chamber)則是傳播理論中的一種假說,認為:信息會在封閉系統內,因為重複交流而放大,造成用戶在迴聲室中選擇性地接收那些能加強自己既有觀點的「證據」,而忽略其他不利或矛盾的資訊,無意識地犯下確認偏誤(confirmation bias)。這樣的現象容易加劇政治和社會的兩極化,成為極端主義的溫床。
而目前推薦演算法並不透明,因此Google的個人化搜索結果、Facebook所提供的新聞資訊,以至於Twitter、Facebook 等社群網路平台在2016年美國總統大選中所扮演的角色,都遭受嚴重質疑。
魚與熊掌
Google子公司DeepMind的一篇研究,卻發現上述種種非難的根本原因其實在於人類心理,而推薦系統充其量只能延緩或加速現象的發生。系統三個獨立變數─系統準確度、推薦量與推薦項目的增加率─左右了用戶興趣退化(interest degeneracy)的速度。
當系統能更精確地預測用戶興趣時,理所當然加速了過濾泡泡的發生。隨機推薦(random exploration)看似能減緩這樣的進程,但在迴聲室效應必然發生的前提下,在特定情境中反而令系統能更快察覺用戶最感興趣的項目。如此一來,較佳的推薦系統設計─如何避免那不可避免的─是放寬演算法的推薦數量與範圍,並持續(至少線性)增加推薦項目的多樣性。
明尼蘇達大學電腦科學教授Joseph A. Konstan對DeepMind的發現並不感到意外,因為許多資料科學家早已察覺推薦系統的準確度和資訊多樣性間的對立關係。不過,儘管過去研究已指出用戶其實可以接受較低的推薦準確度,以換取資訊的多元性,但系統開發人員仍對這樣的設計理念感到遲疑,深怕不精確的推薦系統無法贏得客戶信賴,而錯失商機。
編譯來源
R. Jiang, S. Chiappa, T. Lattimore, A. György, P. Kohli, “Degenerative feedback loops in recommender systems”, arXiv.org, 2019.
參考資料
- N. Mathur, “DeepMind researchers provide theoretical analysis on recommender system, ‘echo chamber’ and ‘filter bubble effect’”, Packtpub, 2019.
- K. Hao, “DeepMind is asking how AI helped turn the internet into an echo chamber”, MIT Technology Review, 2019.
- G. Rodríguez, “Introduction to Recommender Systems in 2019”, TryoLabs, 2019.
(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)