好奇機器人能自學(3/3)

分享至

好奇機器人能自學(3/3)

撰文/Diana Kwon|譯者/鍾樹人
轉載自《科學人》2018年4月第194期

預測誤差引發社交

當我們與其他人互動時,大腦也在設法預測未來:我們一直嘗試推測別人的意圖,預期他們接下來可能會說的話。有趣的是,減少預測誤差的動機就能引發基本的社交行為,機器人學家長井志江(Yukie Nagai)等人已於2016年在日本大阪大學證明了這一點。

研究人員發現,即使沒有透過程式讓iCub具備內在的社交功能,光是縮小預測誤差的動機,也會讓它以有效方式做出動作。例如,研究人員教導iCub推動玩具卡車後,它有時會看見研究人員無法把卡車推到正確位置,但它通常還是會完成同樣的動作;僅為了增加卡車出現在特定位置的精確度。現任職於日本情報通信研究機構(NICT)的長井志江相信,嬰幼兒也可能以類似方式發展技能。她指出,「嬰兒不需要幫助他人」,單單降低預測誤差的動機就能引發基本的社交行為。

「預測處理」(predictive processing)或許能幫助科學家了解自閉症這類發展疾病。根據長井志江的說法,一些自閉症患者可能對預測誤差比較敏感,承受不住接踵而來的感官資訊,這可以解釋他們反覆固定的行為,因為容易預測結果。

荷蘭拉德邦大學的認知心理學家貝克林(Harold Bekkering)相信,預測處理也能幫助科學家解釋注意力不足/過動症(ADHD)患者的行為。貝克林解釋,根據這項理論,自閉症患者不喜歡受外界事物干擾,無法專心的人則是難以預測環境中的刺激,並會不斷接收到這些刺激。他說:「一些對世界敏感的人會探索世界,對世界太敏感的人則會封閉自己。在預測程式架構中,你可以精確模擬這兩種模式。」他的實驗室正利用人腦造影來測試這項假設。

長井志江希望透過認知鏡像(cognitive mirroring)研究來評估這項理論;在這項研究中,裝設預測學習演算法的機器人會與人類互動。機器人透過肢體語言與臉部表情跟人類溝通時,會配合人類調整行為,因此可以反映人類對可預測性的偏好。如此一來,研究人員就能利用機器人模擬人類認知,然後檢視機器人的人工神經網路,設法解譯人腦。長井志江說:「我們可以把自己的特質輸出到機器人,以更加了解自己。」

以機器人探索心智

研究這類機器人有助於解答心理學的一些關鍵問題,包括預測處理以及身體在認知發展上的重要性。史密斯說:「我們已學到關於複雜系統如何運作、身體的重要性,(以及)一些非常基本的事,例如探索與預測。」

然而,可以展現人類智慧般的機器人,仍是遙不可及的夢想–查皮依然是科幻故事。在此之前,科學家必須克服技術障礙,例如多數機器人的身體結構太脆弱、感覺性能也有限。(柔軟機器人與電腦視覺這類領域的進展或許有所幫助。)更加困難的是,人腦構造極度複雜。雖然很多尖端研究極力模仿人類心智,科學家還是無法打造出堪可比擬的機器。烏德耶說:「我完全不同意有些人所言,在10或20年內就會出現人類智慧水準的機器。我想這顯示人們對人類智慧的複雜度有很深的誤解。」

再者,智慧不能只憑藉正確的機器與電路。一連串研究已經證明,照護與教育對兒童發展至關重要。谷淳說:「如果你問我,機器人能否變得像人類一樣,我會問你,人類是否能像管教孩童一樣管教機器人。如果後者成真,前者才有可能發生,否則我們無法期望機器人像孩童一樣成長。」

逐漸累積知識的過程也不可或缺。史密斯說:「兒童發展是很複雜的級聯系統(system of cascades)。某一天發生的事會成為(日後)發展的基礎。」她指出,因此,除非找到方法整合人類一生循序漸進的學習過程,在此之前,我們不太可能打造出人類智慧水準的AI。

費曼(Richard Feynman)在過世前寫下這句名言:「我不能創造的東西,我就不了解。」谷淳在2016年出版的著作《探索機器人心智》(Exploring Robotic Minds)中,調換了這個概念,他說:「我可以了解我能創造的東西。」他主張,了解人類心智最好的辦法,就是創造一個。

將來,人類或許可以成功創造出能像孩童一樣探索、適應與心智得以成長的機器人,或許還需要有人類的照顧與管教,讓機器人健全成長。在此之際,這類機器人研究將持續展現關於孩童學習的珍貴見解,並且揭露AI基本機制出錯時可能發生的事。(完)

(本文由教育部補助「AI報報─AI科普推廣計畫」取得網路轉載授權)

(Visited 20 times, 1 visits today)

分享至
views