「抱歉,我說錯話了!」AI正努力向人類學習對話
編譯|葛竑志
無論別人說了什麼,Tay還是說了很多糟糕的話,她的隻字片語裡似乎只有那些不好的字眼,言語中充滿挑釁意味又提倡著種族主義,不認識她的人還以為她本來就是個排外又見識淺薄的人。
其實Tay是個幾年前由微軟設計的實驗性對話機器人,起初目的是想達到能和眾多網友們輕鬆愉快聊天的效果。剛開始在社群網站剛上架沒多久後,少部分好奇的美國鄉民們發現他們可以輕易地讓Tay說出一些色情和惹惱人的話,只因為她當初被設計成去重複對她說過的話。隨著對話越來越多,讓她說出的話有更糟糕的趨勢,發覺事態嚴重的微軟不到幾個小時內便關閉了Tay,因為這對她的功能已造成了很大影響。
●更聰明的對話機器逐漸問世
當然這還只是個開端。此後,許多網路巨擘也開始傾力發展對話技術,他們相信隨著網路上紀錄的文字越來越多,越能夠提供對話技術爆炸性的成長。現在新的系統變得不只是重複句子、丟出罐頭對話,而更會從大片語意中去汲取資訊來學習與人溝通。
舉微軟的對話系統為例,當機器接收到了一則訊息,它將會產生數千個可能的回應,並根據各個句子接近人類對話的相似度做排序,再從中選擇最接近正確的回答。在一次的Demo中,使用者問了機器「誰是Adele?」,系統羅列出了許多可能的回應,前五個最適合的句子依序是「她是歌手」、「我不知道她是誰」、「她就是歌手」、「Lana Del Rey(拉娜德雷,同為美國著名歌手)」以及「我不知道她是誰,但她是歌手」。我們大概可以看出機器對於世界應有相當的了解,而能認識到這邊講的Adele正是英國那位名為Adele的歌手。
令人意外的是,微軟的研究者們仍是借取Twitter和Reddit——這兩個以酸度為名的論壇裡,所擁有的大量討論串來訓練這個對話系統。幸運的是,即便在匿名的網路世界,大多數人的對話還是很客氣的,使得對話系統仍然能從中獲得有用的資訊。身為這項計畫的研究人員之一,Dolan表示,經過訓練後的系統可以表現的很好,縱然會有些拼寫和文法的問題存在,但這通常是無傷大雅的。
●為什麼大家都在做對話機器人?
多年來,矽谷早已出現許多「聊天機器人」,號稱可以幫忙訂機票和排除電腦問題,但從來沒有實現到直接下單的動作,做出的回應也還只是比罐頭對話多了一點,那是什麼又再次點燃重啟對話的希望了呢?
拜近年來火紅的神經網路所賜,機器學習語言的速度比以往快了很多,如此複雜的演算法主要透過識別廣大數據庫的資料,在層層參數中建立起一套學習模型,最後能夠從輸入的資料中去預測最佳的答案。以往神經網路常被應用來辨識人臉跟物體,還有像是協助即時翻譯、語音辨識這類的功能,現在有了神經網路的幫助,便也能加速學習對話的進度 。
除了微軟以外,Facebook,Amazon和Salesforce這類的公司還正積極開發對話的相關技術,他們相信使用者和機器的互動應該可以回歸更純粹、簡單的方式,而不需藉由傳統的鍵盤、滑鼠,到現在普及的觸控螢幕、Siri等語音助理來達成使用者想完成的事情。儘管在技術的開發上還有很多路要走,但許多互聯網的未來方針早已寄望在這項技術,能夠縮短人機距離的同時,也增進使用者體驗。
●「無可避免的錯誤」正是對話機器開發的困難之處
許多企業也都面臨著跟微軟一樣的問題:儘管對話系統設計地愈趨複雜,還是無法確保它絕不會失控。借鏡Tay的黑歷史,至少目前為止還沒有公司願意在無限制的條件下讓對話系統自由地學習。
Facebook人工智慧實驗室的Lebrun說,「聊天機器人講得越來越像個人類時,這可能並不會是件好事。他們雖然強大,但同時也更危險了。」
雖然有些系統可以表現地很好,但也並非所有結果都能如此漂亮。在Lebrun 的觀察下,發現機器人每一千次的回應中就會出現一次也許是偏激、挑釁,也許是具有強烈種族主義的話語。過去也曾發生過Google Photos的自動標記工具建議將黑人標記為大猩猩的事情,工程師還是必須去一一處理那些意料之外的結果。
相對於多數AI處理的是人們簡單的要求,但要從對話AI中找到並解決問題會是個更困難的事情。例如影像辨識通常只是個單純的任務,但對話卻是個來回對答的過程,每一個來自使用者的訊息與機器做出的反應都會影響最後的結果。
●學習一個語言,最好的方法就是持續溝通
Dolan 相信,對話機器可以透過與大量人們溝通來增進它們的技術,在對話的同時除了能獲得更多訓練資料,也幫助設計者找出系統的缺陷。「如果不能讓它接觸人們可能會有很大的問題,我們必須透過使用者來告訴機器什麼是對的,什麼是錯的。」
除了因為這項技術的發展還很年輕,尚有許多不完備之處,更是因為機器是從我們的對話中去學習,同時也全然接受了人們話語中隱含的許多錯誤與偏見。一位風險投資公司的合夥人Coates曾說,「對話機器的發展眼前是一道巨大的技術障礙,這或許不是資料量不足的問題,應該是我們缺少了一些突破的想法。」
短期內,許多人還是樂觀期待對話系統能在特定工作上,像是排除電腦問題或提供醫療建議表現的不錯,但對於更複雜的要求,可能還需要一段很長的時間去順利地回應人們對它說的話。接下來幾年內應該只會有更多聊天機器人的出現,Dolan說著,「當對話機器人說了一些不好的話的時候,希望大家能夠原諒它」,「畢竟進步難免會帶來一些錯誤」。
原文出處:To Give A.I. the Gift of Gab, Silicon Valley Needs to Offend You