賦予AI人類直覺

分享至

賦予AI人類直覺

編譯/葉姝涵

兩種AI

現今幾乎所有的電腦科學家,都已拋棄電腦科學之父圖靈(Allan Turing)的構想─一種能實際理解人類語言與邏輯,並依據已知背景知識作出推論的人工智能。除了早期IBM所開發的DeepBlue,於1997年成功擊敗時任世界西洋棋冠軍Garry Kasparov的當下,曾經風光一時外,這些「舊款人工智能」(Good-old fashioned AI,GOFAI),在往後發展中,已逐漸為以機器學習為基礎的AI(Machine Learning AI,MLAI)所取代。

藉由接觸大量數據與資料,不斷嘗試錯誤,以摸索出其中規律與差異的MLAI,在近幾年已有長足進展:舉凡語音辨識、圖像辨識、癌症診斷,甚至在棋局與紙牌遊戲中擊敗人類玩家。2017 年,在AlphaGo擊敗南韓圍棋冠軍李世石後僅一年,Google旗下DeepMind團隊便隨即推出同系列,但人類預先寫入的規則更少,卻表現更佳的 AlphaGo Zero,以及月餘後的AlphaZero。機器學習一時蔚為顯學,儼然成為人工智能的代名詞。

關鍵平衡

然而,MLAI也並非無往不利。以圖像辨識為例,電腦或許可以比人類更快、更精確地由一系列犬隻相片中分辨出吉娃娃,但也時常將吉娃娃誤認為藍莓馬芬。Alpha系列程式雖號稱稱霸圍棋界,但若將戰場轉移至21×21的棋盤,而非標準賽制中所使用的19×19棋盤,則畢生功力盡失,需從頭來過。其中最大的問題,在於MLAI缺乏將所習得的規則,擴展套用至訓練集以外的資料集或真實世界的能力。即使如此,許多電腦科學家仍然不認為回歸到以規則主導的AI(Rule-based AI)會是問題的答案。

AI有時候會將吉娃娃誤認為藍莓馬芬。( 來源:M. Yao, 2018. )

原因其實很簡單:因為以人力從頭建立起一套規則並非易事。尤其很多時候,其實連我們人類自己,都對當中的規則不甚了解,更不用提經系統實際運行後,會造成怎樣的錯誤與後果。紐約大學電腦科學家及Facebook首席AI研究員Yann LeCun,如此說道。

我們當然可以定義「狗」是一種:

  1. 有四隻腳;
  2. 有尾巴;
  3. 比貓大的動物。

然而,即使是三歲嬰兒,也絕不會誤把一隻肢體殘缺的流浪狗或吉娃娃排除在「狗」的範疇之外。所以問題的癥結,不在於我們是否應該回歸GOFAI,或繼續當前MLAI的道路,而是如何在兩者間取得關鍵平衡。

候選直覺

紐約大學認知發展學家Garry Marcus則轉向你我身上尋求答案。與一般大眾認知相左,「心靈白板」(The blank slate)的教育理論,早已為當今心理學界所摒棄,並認為:人類嬰兒其實與生俱來一套認知架構與直覺,並以此來理解這個世界,並從中學習知識與技能。這些認知架構,包含能建立起時空連續關係(spatiotemporal contiguity)、因果關係(causality)、區別「種類」與「個體」差異(type-token distinction,例如「狗」與「忠犬小八」)以及成本效益分析(cost-benefit analysis)等能力,正是當下電腦科學家應該賦予AI的「基本直覺」。

不可否認,這並不容易,但已有許多研究團隊嘗試作出改變。位於舊金山的機械人軟體公司Vicarious,便開發出「基模網路」(schema network),除了可以認知到「物體」(object)與彼此間「互動」(interaction)的存在,甚至可以推斷連結兩者的「因果關係」(causation)。這些能力,使得AI也可以像人類一般,針對特定目的,來規劃自己後續的行動。以經典街機遊戲「打磚塊」(Breakout)為例,即使遊戲的背景設定有所更動,例如由原先單顆球改為多顆,基模網路使得AI無需多餘訓練,便可快速進入狀況,游刃有餘。這是純粹仰賴機器學習的AI所無法達成的。

Google的眾多隱藏遊戲中,也包含經典街機遊戲「打磚塊」。( 來源:遊戲截圖 )

不確定性

而在這些直覺之外,如何讓AI能妥善處理真實生活中的「不確定性」,也是一大重點。這對自駕車系統尤為重要:我們不可能奢望所有駕駛無時無刻恪守交通規則。史丹佛大學心理學與電腦科學家Noah Goodman所開發的機率程式語言(Probabilistic Programming Languages,PPLs),便是將嚴謹的電腦編程與機率數學結合。配合深度學習,深度PPL,或稱Pyro,可以根據路況規劃最佳行駛路線並派車接送乘客,這對如Uber等網路交通服務商而言,有無窮吸引力。

而Pyro的潛力不止於此。Goodman甚至認為Pyro能對語音辨識技術的發展有所助益,進一步理解在人類對話中常見如誇飾(hyperbole)、反語(sarcasm)等修辭。或許有朝一日,機器人不僅能字面上理解人類的話語,甚至是那些沒說出口的弦外之音。

 

編譯來源

M. Hutson, “How researchers are teaching AI to learn like a child,” Science|AAAS, 2018.

參考資料

  1. M. Yao, “Chihuahua or muffin? My search for the best computer vision API,” freeCodeCamp.org, 2018.
  2. W. Knight, “Can this man make AI more human?“, MIT Technology Review, 2018.
  3. T. Simonite, “Teaching machine to understand us,” MIT Technology Review, 2018.
  4. Debate: “Does AI Need More Innate Machinery?” (Yann LeCun, Gary Marcus). NYU Center for Mind, Brain and Consciousness, 2017.

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

(Visited 77 times, 1 visits today)

分享至
views