【AI嘉年華】機器如何聽懂我們說的話?

■就像人類的文字世界是由一個個詞彙組成的,機器的學習可以先從詞彙的理解開始。今天,我們可以利用Word Embedding的技術,讓機器去閱讀文本,透過上下文之間的關係來推論出每個詞彙之間的意義。舉例來說,如果機器在閱讀新聞時,看到「馬英九在520宣誓就職」和「蔡英文在520宣誓就職」這兩個條目,那麼雖然沒有人告訴過機器「馬英九」與「蔡英文」是什麼意思,但是機器能推論出這兩個詞在某種程度上是相關的,因此如果我們讓機器讀越多的書,機器就越能理解這些詞彙之間的關係,猜出他們代表什麼意思。

Read more

【人物專訪】讓機器自己學習語音的實踐者——專訪李宏毅

■因著科幻電影,人類不乏想像與機器人對話的場景。但機器人真的能夠聽懂人類說話嗎?對話的基礎在乎「語音」,讓我們透過與AI語音專家-台大電機系李宏毅教授的訪談,開啟人工智慧語音領域的大門。

Read more

AI的悄悄話大挑戰

對於有聽力困難的人來說,唇語能幫助他們與一般人溝通,是手語之外的另一種關鍵溝通能力。然而對人類而言,要掌握嘴唇的細微動作十分困難,現實中即使是經過嚴謹訓練的唇語專家,甚至是情報間諜都仍有高度辨識誤差。因此Google旗下DeepMind研究團隊與牛津大學合作,開發出LipNet讀唇系統。透過機器學習,訓練AI也能「讀唇」。經過改良後,系統辨識錯誤率雖仍達41%,卻已明顯優於人類專家(錯誤率達93%),進步可謂相當顯著。

Read more

機器人:什麼?大聲點我聽不見!

人類有個與生俱來的能力:能在吵雜的環境中,分辨出哪句話是哪個人說的,並將不想關注的部份自動「消音」,降低訊息接收的錯誤率。現在,電腦也將具備這樣的能力。Google 新發表的音訊分離技術,藉由分析說話者口部動作影像與聲音特徵,辨別聲音是從誰的口中發出,進而將畫面中每個人物所說的話分離為獨立音軌。如此一來,智能助理也能在吵雜環境中,分辨出自己的使用者所下的指令。

Read more

我的口音,機器人聽得懂嗎?

同樣說英語,Alexa對於操著不同口音的使用者,會有著相同的待遇嗎?研究人員實際進行了測試,結果顯示:Alexa與臺灣許多英語學習者一樣,面臨著口音辨識的挑戰。當聽到比較少接觸,例如印度或其他與美式發音差異較大的英語口音時,很有可能判讀錯誤或是呈現聽不懂的尷尬狀態。為今之計,除了持續擴大語音資料庫,容納更多非母語英語使用者的樣本外,是否還有其他方式可以避免呢?

Read more