人如何對具備互動式機器學習的智慧系統產生信任感?

分享至

機器學習是一個讓智慧系統可以根據使用者提供的資料產出相對應預測結果的方法,像是我們每天都會在社群媒體上看到的動態貼文,背後機制就是仰賴機器學習技術,系統會根據我們過去瀏覽紀錄或是跟我們具有類似喜好朋友們感興趣的內容來預測我們接下來對哪些內容感興趣,進而優先推薦這些我們很有可能感興趣的貼文到社群網站首頁來吸引我們注意。不只是社群網站上看得到機器學習的蹤影,用手機打字的時候,手機輸入法在偵測到我們打出前幾個字的時候優先列出哪些候選字詞讓我們選擇也是機器學習的功勞,一個好的演算法就會根據使用者過去輸入的內容來預測現在使用者最有可能需要用到的詞彙,讓我們很快選到自己想要的字。今天將跟大家介紹機器學習中的一個分支——互動式機器學習,以及人們如何對這類智慧系統產生信任感。

撰文/楊期蘭

互動式機器學習

隨著越來越多研究者投入人工智慧領域發展,現在除了讓機器根據開發者餵給它的training data(訓練資料集)來辨識與預測之外,近年來被提出用在提升機器辨識/預測準確率的方法就是讓「人」加入這個機器學習的過程中,也就是human-in-the-loop,讓使用者看到機器學習的辨識結果後,提供即時回饋讓機器可以立即更新資料庫,進而在下次預測中達到更準確的結果。研究者們將這個「人加入機器學習歷程」的方法稱作互動式機器學習(interactive machine learning) [1]。

目前市面上也有一些網路服務是透過這種互動式機器學習來提升使用者體驗,舉例來說,當我們進入YouTube首頁時,會看到很多系統推薦的頻道,大部分都會是我們感興趣的,但有時候也會看到一些頻道是我們不感興趣的,這時候點影片右下角就可以選擇一個「我不感興趣」的選項,點下去後推薦系統的演算法就會知道這個使用者對這個頻道沒興趣,並且更新下一次它的推薦結果,只要使用者有提供這些回饋(feedback)讓系統知道自己的喜好,系統更新後的推薦就越能夠精準的命中使用者的潛在喜好。這就是一個透過蒐集使用者回饋來更新系統預測結果的互動式機器學習例子。

Photo by LinkedIn Sales Navigator on Unsplash

使用者對智慧系統的信任感會受什麼因素影響?

當我們與各種具備互動式機器學習的智慧系統互動的時候,對它的信任感不僅會影響整體體驗,也會影響我們未來願不願意繼續使用它。試想我們在社群媒體上看朋友的貼文,如果社群媒體優先讓使用者看到自己特別在意的朋友們的貼文,使用者就會越來越想繼續停留在這個服務裡,但如果它盡是推薦跟自己生活很不相關的人們的照片,久而久之使用者就會開始不信賴這個服務的演算法而決定離開。

系統的解釋性

在這類機器學習系統中,系統推薦的結果能不能讓使用者理解背後運作原理便是一個重要指標,「系統可解釋性」(explainability) 指的就是當系統給出一個推薦結果後,也會提供相對應的解說,讓使用者明白為什麼自己會在這個時間點看到某一則貼文或是為什麼自己會被推薦某個頻道,是根據自己的瀏覽紀錄?還是有其他資料被納入這些推薦系統的考慮?當使用者了解系統運作機制,對這個智慧系統的信任感就會提升。

這其實就如同我們跟伴侶相處一樣,兩個人相處其實就是兩個智慧的個體在互動,當伴侶做出某個行為後,若都不跟你說為什麼他這麼做,當你不能理解的時候就會讓彼此之間開始出現信任的裂痕;如果對方總是能清楚的讓你知道為什麼他/她為什麼這時候想打電話來或是為什麼某些時候想獨處,一旦對方提供了這些行為的解釋,雙方對彼此的信任感自然而然也會提升。

使用者的回饋是否被採納

但是智慧系統除了提供解釋還不夠,研究發現當一個智慧系統的辨識準確度不夠高的時候,如果只提供解釋說明為什麼這個系統會運作不夠好,但是沒有管道讓使用者提出回饋,這反而會降低使用者對它的信任感。但是如果這時候讓使用者可以有機會提供回饋(feedback),讓使用者指出系統哪裡分類不夠好或是哪些推薦是自己不需要的,並且使用者也明確知道系統會採納這些回饋的話,如此一來人們就會更加信賴這個系統,相信它會調整下一次的分類預測結果,也信任它會越來越準確 [2]。

如同我們跟伴侶相處一樣,如果伴侶做出了某個我們不喜歡的行為,對方嘗試解釋為什麼做出這行為,接著我們嘗試給出回饋想讓對方調整行為,試著跟對方說:「我不喜歡你/妳的這個行為」,下一次互動發現對方都沒有改變的話,兩人關係就會開始出現裂痕;相反地,如果對方有採納你的回饋,試著改變自己下一次的行為的話,你就會覺得對方值得信賴,也自然願意一直跟伴侶相處下去。

Photo by Priscilla Du Preez on Unsplash

「給出解釋」並「採納建議」讓我們更加信任另一個智慧的個體

具備互動式機器學習的智慧系統越來越普及於每個人的生活中,身為這些系統的開發者與設計者,需要提醒自己在設計的同時必須讓系統具備可解釋性,並且要進一步讓使用者感受到她/他提供的回饋有被系統採納;而身為這些智慧系統每一個使用者,了解到我們每天其實都是在跟不同的智慧個體相處,如果要提升自己與旁人相處時對彼此的信任感,適時說明自己行為的理由,並且開放地採納旁人的建議與回饋,也許能讓你們彼此的信任感大大提升。

 

作者:東京大學 學際情報學 楊期蘭 (搜尋「人機共生你我它」了解更多)

 

參考資料:

  1. Interactive machine learning. (n.d.). Retrieved February 07, 2021, from https://courses.media.mit.edu/2013fall/mass62/
  2. Smith-Renner, A., Fan, R., Birchfield, M., Wu, T., Boyd-Graber, J., Weld, D. S., & Findlater, L. (2020, April). No explainability without accountability: An empirical study of explanations and feedback in interactive ml. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13).
(Visited 49 times, 1 visits today)

分享至
views