機器人不懂你的心,但你懂「它」的心嗎?

分享至

(圖片來源:pixabay.com)

撰文|王冠云

隨著高齡化社會的到來,人類有越來越高的高齡照護與醫藥需求。機器人在這樣的背景之下成為了未來的明星科技,它被期待能提供個人協助、社會照顧、認知治療等高齡照護服務。而為了促使人類與機器人之間有更好的互動,要讓這些「機器」進入到人類日常生活中,我們需要的是像人一樣、具有社交互動能力的機器人。

機器人要怎麼表達自我呢?

麻省理工的Breazeal教授在2003、2004年左右,即提出我們現代社會需要的是一種具有「社會存在感(social presence)」的機器人。她提出了四個與機器人互動的典範,這四個典範包含著我們如何看待機器人所扮演的角色:工具(tool)、改造人(cyborg extension)、虛擬形象(avatar)、社會夥伴(sociable partner),其中虛擬形象指的是一個人可以擁有一個機器角色,和遙遠距離的其他人溝通,社會夥伴則是讓機器人成為一個可以提供回應和互動的陪伴者,若機器人扮演了這些角色,那麼它們的社會存在感也就應運而生。

目前,隨著科技的演進,要提供更良好人機互動情境,我們需要更容易溝通的機器人,最好是可以有情緒互動的表現(Shin and Choo, 2011)以及擬人化的手勢(Baddoura and Venture, 2015)來輔助表達社交性。

那麼人類看得懂機器人的社交表達嗎?

Chaminade等人組成的跨國團隊,使用了fMRI測量人類感知基本的情緒變化以及「無聲話語(silent speech)」時,腦區如何活化。實驗的刺激使用了人形的機器人以及真人表演,拿來比較觀看機器人和觀看真人時有什麼樣的不同。該研究團隊使用的機器人是早稻田大學開發的WE4-RII機器人,是一個專門用來研究如何提升人機互動的機器人,它擁有眉毛、眼睛、鼻子、嘴巴和手臂,它的這些關節都是可以活動的,因此它可以做出許多臉部表情以及一些簡單的手勢。

實驗者選擇的情緒有三種,分別是開心、生氣、噁心,另外再加上一個無聲話語的情境,包含臉部表情和手勢,總共是四種姿態。受試者會觀看機器人表現這四種姿態,也會觀看人類表現這四種姿態,並且請受試者評分情緒張力以及動作幅度,同時進行fMRI的測量。

實驗結果指出,在情緒評分方面,對於人類的生氣、噁心這兩種情緒,受試者會感受到人類比機器人還強烈的情緒張力,開心的情緒張力則沒有區別。fMRI的結果則是會發現在視覺處理的相關腦區,觀看機器人刺激的活化程度都比觀看人類刺激的活化程度還高,辨識臉部的區域FFA(Fusiform Face Area)也有顯著的差異。研究者認為,因為機器人對於人類而言還是屬於「比較難理解的」,要想了解機器人的情緒,和辨識出「機器人的人臉」需要投注比較多的認知資源,因此活化的程度比較高。

此外,還有個有趣的發現是我們必須要投注由上而下(top-down)的注意力,才可以讓我們了解機器人的情緒;但是理解人類的情緒或意圖,可以自動化的產生由下而上(bottom-up)的處理歷程,操弄人類的注意力對於人類是否互相理解人類的情緒是沒有顯著的效果的。

哆啦A夢懂你的心,可是你懂哆啦A夢嗎?

這些研究成果令人不禁想到著名動畫人物「哆啦A夢」,哆啦A夢是一隻藍色沒有耳朵的機器貓,當他理解男主角大雄的情緒、抱怨、不滿而提供道具時,大雄了解哆啦A夢的心情嗎?他懂得哆啦A夢的用心良苦嗎?還是又拿著道具去闖禍了呢?

我們期待機器人有一天能成為輕鬆輔助生活的良好科技,甚至期待著並賦予給這些人型的機器人社會角色。機器人會發展到什麼模樣是個未知數,科技能否創造更多溫暖和更美好的生活,從這篇研究的角度給了一個很特別的視野,要如何能創造出一個讓人類好懂、好用的機器人,又不會過於擬真到太過恐怖的程度,這也是需要拿捏的。

 

參考資料:

  1. Breazeal, C. Social interactions in HRI: the robot view. IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 34(2), 181-186. (2004).
  2. Shin, D.-H., & Choo, H. (2011). Modeling the acceptance of socially interactive robotics: Social presence in human–robot interaction. Interaction Studies, 12(3), 430-460.
  3. Baddoura, R., & Venture, G. (2015). This robot is sociable: close-up on the gestures and measured motion of a human responding to a proactive robot. International Journal of Social Robotics, 7(4), 489-496.
  4. Chaminade, T., Zecca, M., Blakemore, S. J., Takanishi, A., Frith, C. D., Micera, S., ... & Umiltà, M. A.. Brain response to a humanoid robot in areas implicated in the perception of human emotional gestures. PloS one5(7), e11577.  (2010)

加入好友

(Visited 24 times, 1 visits today)

分享至
views