大人如何理解孩子說的話:語音模型與牙牙學語
小朋友說話的奶音是否常常讓你聽到融化呢?但是為什麼明明發音不標準,大人們卻還是能夠理解孩子們說的話呢?而且如果孩提時代說話不標準的話,我們到底是怎麼學會標準語言的呢?有沒有可能透過數學模型的方式來告訴我們人類語言學習的祕密呢?
Read more小朋友說話的奶音是否常常讓你聽到融化呢?但是為什麼明明發音不標準,大人們卻還是能夠理解孩子們說的話呢?而且如果孩提時代說話不標準的話,我們到底是怎麼學會標準語言的呢?有沒有可能透過數學模型的方式來告訴我們人類語言學習的祕密呢?
Read more■就像人類的文字世界是由一個個詞彙組成的,機器的學習可以先從詞彙的理解開始。今天,我們可以利用Word Embedding的技術,讓機器去閱讀文本,透過上下文之間的關係來推論出每個詞彙之間的意義。舉例來說,如果機器在閱讀新聞時,看到「馬英九在520宣誓就職」和「蔡英文在520宣誓就職」這兩個條目,那麼雖然沒有人告訴過機器「馬英九」與「蔡英文」是什麼意思,但是機器能推論出這兩個詞在某種程度上是相關的,因此如果我們讓機器讀越多的書,機器就越能理解這些詞彙之間的關係,猜出他們代表什麼意思。
Read more■因著科幻電影,人類不乏想像與機器人對話的場景。但機器人真的能夠聽懂人類說話嗎?對話的基礎在乎「語音」,讓我們透過與AI語音專家-台大電機系李宏毅教授的訪談,開啟人工智慧語音領域的大門。
Read more人類有個與生俱來的能力:能在吵雜的環境中,分辨出哪句話是哪個人說的,並將不想關注的部份自動「消音」,降低訊息接收的錯誤率。現在,電腦也將具備這樣的能力。Google 新發表的音訊分離技術,藉由分析說話者口部動作影像與聲音特徵,辨別聲音是從誰的口中發出,進而將畫面中每個人物所說的話分離為獨立音軌。如此一來,智能助理也能在吵雜環境中,分辨出自己的使用者所下的指令。
Read more同樣說英語,Alexa對於操著不同口音的使用者,會有著相同的待遇嗎?研究人員實際進行了測試,結果顯示:Alexa與臺灣許多英語學習者一樣,面臨著口音辨識的挑戰。當聽到比較少接觸,例如印度或其他與美式發音差異較大的英語口音時,很有可能判讀錯誤或是呈現聽不懂的尷尬狀態。為今之計,除了持續擴大語音資料庫,容納更多非母語英語使用者的樣本外,是否還有其他方式可以避免呢?
Read more