電腦有意識嗎?(2/2)

電腦有意識嗎?(2/2)

撰文/Christof Koch & Giulio Tononi|譯者/王怡文
轉載自《科學人》2011年9月第115期

影像版的涂林測試

測試電腦看不看得懂圖片,不是像傳統涂林測試那樣,輸入一個問題給機器;而是從網路上隨機選幾張影像,垂直分三等份,把中間部份塗黑,再將剩下的左右兩部份隨機搭配,要求電腦選出正確的組合。除了原本就來自同一張影像的左側和右側,其他組合都不會正確。由於中間塗黑,目前電腦用的影像分析策略(例如尋找能組合在一起的影像紋路或顏色)太過簡單,無法正確回答。要通過這種分割影像測試,需要很強的視覺理解以及篩選影像可能組合的能力。

另一個測試是在幾張影像中插入物體,使其中只有一張看起來不合理,再讓電腦挑出奇怪的那張。工作檯和鐵鎚很搭,但鐵鎚一定不會懸浮在半空中;iMac前面放個鍵盤是正確的,放盆栽就不對。

電腦有很多運用影像特徵(例如色彩、邊界或紋路)的低階統計資料來尋找適當配對的策略,它們或許能應付其中一種測試,卻無法通過多種不同的影像測試。要做出讓這些測試發揮實用價值的詳細設計,還要更多努力。然而這些測試能凸顯一件事:人類意識知覺到的大量整合知識,與目前機器視覺系統所擁有極度狹隘又專門的知識,形成強烈對比。是的,今日電腦能從有100萬張臉孔的資料庫中,挑出可疑的恐怖份子,但無法辨認他的年紀、性別或種族,不知道他是否看著鏡頭、是笑還是皺眉,也看不出這個人和華盛頓握手的照片很可能是數位合成的。任何有意識的人類只要一眼就能看出這些,甚至更多的事。

知道這些之後,我們對不久的未來可以有怎樣的期待?只要能找出某個任務的某些特徵與其他任務無關,就能交給機器去處理。高速演算法能迅速搜尋龐大的資料庫,打敗人類西洋棋王和「危險邊緣」冠軍。人類可以挑選大量相關實例輸入電腦,訓練複雜的機器學習演算法學會辨識人臉或偵測行人,電腦就能表現得比人類更快更好。不難想像,將有越來越多的專門任務由機器接手。高階電腦視覺系統即將成熟,不出10年,就會有可靠而幾乎全自動化的駕駛模式可供選用。

不過,我們預料這類機器視覺系統並無法回答有關車子前方景物的簡單問題:開車從高速公路駛近芝加哥,遠方地平線上的景物像不像從一團煙霧中浮起的燒焦樹叢?它也看不出加油站旁邊出現一根巨無霸香蕉很詭異(或許在洛杉磯就不會很怪)。要回答上百萬個這類問題,或指出那根香蕉有何不對,需要無數個專為問題所設計的軟體模組,但沒人能有先見之明去設計那些模組。沒錯的話,儘管高階機器視覺系統能根據一組專業分工的平行模組,實現近乎全自動化的駕駛,而其他許多日常工作也能比照辦理,這些系統仍無法意識到它們前方的景物。

不過或許也會有另一種不同的機器,把世間事物彼此數不清的關聯性化為知識,納入高度整合的單一系統。這種機器面對「這張圖有何不對」的問題,依舊會跳出答案,因為不管哪裡出錯,都無法符合它內建系統裡,隨資訊整合方式所決定的某些內在限制。

這種機器會擅長處理不易分割為許多獨立任務的事情,它有整合資訊的能力,會對景物產生意識知覺。我們推測,為了要達到高層次的整合,機器也許會善加仿效哺乳類大腦的結構原則。這些機器將輕易通過我們提出的測試,果真如此,就代表它們和我們一樣,擁有宇宙中最神秘的特質──意識的天賦。(完)

(本文由教育部補助「AI報報─AI科普推廣計畫」取得網路轉載授權)

(Visited 1 times, 1 visits today)
views