角色設定如何影響我們使用聊天機器人的體驗?
現在市面上有很多不同的語音助理以及聊天機器人相關服務,像是Google assistant, Siri, 微軟小冰,或是網路銀行的各種語音助理客服服務,在這些眾多聊天機器人服務中,有許多是我們開始試著跟它講幾句話後就不想繼續使用,從此被我們打入冷宮;有些是我們開始互動後就想捉弄它,餵給它許多粗鄙的言論,想讓它講出一些難聽的話;但有些卻仍然能持續在市場上佔有一席之地,持續與我們互動。這些語音助理背後的運作機制相差不大,但是最後的命運卻很不一樣,有沒有可能是「它」的角色設定造就了這個結果呢?
撰文/楊期蘭
●設計聊天機器人過程中使用的「譬喻」
在設計過程中,「譬喻」(metaphor) 經常被用在讓使用者理解某個新設計的使用方式或是預設用途,像是我們把物理世界中的桌面用在電腦中的桌面,透過這個譬喻,我們很自然的會把物理世界中跟桌面互動的方式直接轉移到電腦上,在物理世界中,我們知道桌面上可以擺放東西,不要的東西會丟入垃圾桶內,當進入電腦畫面的時候,把主畫面命名為桌面,使用者很自然就會知道可以在上面放置檔案,不要的檔案就可以丟入垃圾桶 。[2]
在使用市面上不同的聊天機器人之前,我們通常都會先看到一個關於這個機器人的角色設定,像是「為你處理生活大小事的最佳幫手」、「你的隨身金融顧問」、「充分理解・智能回應的生活小幫手」、「屬於你的聊天夥伴」,這些角色設定就是一種譬喻,當我們看到這些角色設定描述後,對眼前即將開始互動的聊天機器人就會產生某個特定的期待跟預設跟他互動的方式,像是當我們在跟主打「你的隨身金融顧問」的聊天機器人互動時,我們就會問他一些金融相關的問題,也預期它能夠回答各種金融相關的專業知識,但我們就不會期待它需要為我們設立行事曆或訂餐廳。
這些譬喻形塑了使用者對聊天機器人的期待,引導使用者跟具備不同專長的聊天機器人對話,讓使用者的對話得以限縮在一個特定範圍內;另一方面,譬喻也讓我們在開始互動前,對它產生一個非常專業的或是非常溫暖的形象,但這樣的譬喻有沒有可能讓使用者產生期望落差,進而導致我們最後對「它」的評價呢?
●「期望越高,失望越大」影響我們使用聊天機器人的體驗
來自史丹佛大學人機互動研究團隊於2020年的研究發現 [1],當我們對聊天機器人產生的第一印象是能力較差的,我們比較能容忍它回答不出問題;但如果對它的第一印象是專業的,我們就不太能忍受它回答不出問題。
研究者們透過找真人扮演聊天機器人的方法(Wizard of Oz)[3],讓使用者們跟兩種不同角色的聊天機器人 (由真人扮演)互動。有一組人會跟一個被比喻為具有「幼童」形象(低專業、高溫暖)的聊天機器人對話,另一組則是跟一個被比喻為「精明的旅行社經理人」形象(高專業、低溫暖)的聊天機器人對話。實驗過程中請使用者們分別向這兩種具有不同角色設定的聊天機器人詢問旅遊資訊來完成一個行程規劃的任務。
註:Wizard of Oz 是一個經常被用在人機互動領域的實驗法,由一個真人扮演智慧系統,根據研究者們事先設定好的腳本給出回應,讓使用系統的人以為是在跟智慧系統互動,但其實使用者是跟一個躲在系統背後的真人互動。這個方法經常被用在了解使用者如何跟一個智慧系統互動,過程中需確保這個扮演系統的真人做出的行為可以系統化的被電腦執行。在實驗過程中使用真人而不直接實作出一個智慧系統是為了減少開發成本,如此一來才能在正式開發系統前先比較廣泛探索不同類型的互動模式以供未來系統實作參考。
研究者們在對話開始前先請所有使用者們單憑看完聊天機器人基本介紹後的第一印象,寫下自己覺得這個聊天機器人有多好用、能不能滿足自己的需求、未來會不會想繼續使用它等等,接著兩組人開始分別跟各自分配到的兩種聊天機器人互動,詢問跟旅遊行程規劃相關的資訊,互動結束後再回答一次之前提到的那幾個問題。
比較使用者們前後的評分後發現,跟第一印象是低專業程度、高溫暖的聊天機器人(具有幼童形象)對話後,互動之後仍然覺得它好用,而且之後也想繼續使用它,跟這個感覺起來低專業的聊天機器人對話過程中,使用者也會問比較多問題,並嘗試調整自己問問題的方式來跟它對話;但是相反的,都是跟背後同樣為真人的聊天機器人對話,另一組跟第一印象覺得很專業的聊天機器人互動(精明幹練的旅行社經理人),使用者在互動後會明顯覺得它不好用,也表示未來不想繼續再用它,對話量也相較於另一組少很多。
由此可知,即便聊天機器人背後都是由真人扮演,給出類似的回應,但是一開始所使用的譬喻不同(幼童 v.s. 經理人),造成使用者對兩種聊天機器人產生了不同的期待,進而影響了他們互動中的行為以及感受到的體驗。
●不想使用能力不夠好的聊天機器人
雖然從以上分析意外發現了將聊天機器人形塑成第一印象為低專業的比較能獲得使用者的青睞,因為它的回應出乎原先的預期,因此會在互動後得到較高的評價,但後續分析發現如果把聊天機器人比喻為具有「專業度低又不溫暖」的形象(例如:沒什麼社會經驗的青少年),接著在沒有使用的情況下請使用者回答想不想使用它的意願,結果發現大家不想使用具有一開始就被比喻為「低專業度且不溫暖」形象的聊天機器人,而是想用被比喻為「訓練有素的旅行服務員」(專業且溫暖)的聊天機器人。
人很難搞,使用者們想用「感覺起來」有能力的聊天機器人,但是一開始如果對它期待太高,使用後如果有一點失誤又會讓人有更強烈的失望感,這樣設計師跟開發者們到底怎麼做比較好?
●善用譬喻:讓聊天機器人跟著我們一起成長吧
從這個研究可以發現當企業們嘗試推出智慧系統相關的服務時,也許一味強調它有多智能未必是件好事,當人們對它的期待太高,一旦系統無法滿足使用者需求時所產生的落差感反而會讓大家停止使用這個服務。人跟人互動時何嘗不是如此,當你期待對方是一個完美的人時,當他/她一不小心做出什麼不符合自己期望的事時就會讓我們失望。既然人跟智慧系統都不是完美的,那我們就必須想辦法調整自己對對方的期待。
既然使用者們想要一個感覺起來是專業的聊天機器人,但是現在的語音對話技術又還不能完全做到讓機器做到如同真人對話般的能力,那就靠譬喻的設計法吧。設計師們仍然可以給予聊天機器人一個專業的形象,但是在使用初期可以先告訴使用者:剛開始互動時,聊天機器人會需要時間學習跟你互動的方式。設計一個會隨著時間跟使用者一起逐漸成長的聊天機器人,透過互動設計讓使用者們在初期跟它互動的過程中感覺它是個「小孩」,使用者就會調整自己對它的期待,如此一來就能讓使用者一開始有使用的意願,也不會在使用後產生太大的落差感。
作者:東京大學 學際情報學 楊期蘭
參考資料:
- Pranav Khadpe, Ranjay Krishna, Li Fei-Fei, Jeffrey T. Hancock, and Michael S. Bernstein. 2020. Conceptual Metaphors Impact Perceptions of Human-AI Collaboration. Proc. ACM Hum.-Comput. Interact. 4, CSCW2, Article 163 (October 2020), 26 pages. https://doi.org/10.1145/3415234
- Desktop metaphor. (2020, September 23). Retrieved October 17, 2020.
- Wizard of Oz experiment. (2020, March 21). Retrieved October 18, 2020.
- 梁容輝. (2008, December 09). 從素材到譬喻.