為什麼我們不該盲目追求有自我意識的人工智慧
編譯/高敬堂
由依賴到不可或缺
1950年Wiener的《人類的人性用途》(The Human Use of Human Beings)出版時,世界上只有寥寥數台實際運作中的電腦,且都是以真空管組裝而成的龐然大物。即使如此,Wiener對未來電腦科學,以至於現今耳熟能詳的AI研究,卻有著令人訝異的精闢見解。他認為:人工智慧不僅將在許多方面模仿、取代人類,甚至會在過程中,反過來改變人類這個物種。
這就像大多數哺乳動物,其實是可以合成自身所需的維生素C的;但靈長類動物因為逐漸適應多蔬果、富含維生素C的飲食,合成維生素C的關鍵酵素因此失去天擇的選擇壓力,在靈長類的演化過程中失去原有的功能。同理,當只需要付出極小的成本便能由電腦代勞,我們與AI之間的關係,逐漸由工具的使用者到依賴,甚至不可或缺。
涂林測試的迷思
即使現有AI與理想上的強AI或通用人工智慧(Artificial General Intelligence,AGI)仍有一道鴻溝,然而我們對涂林測試(Turing Test)的癡迷,卻似乎將AI研究導向一條不歸路。
以IBM的Watson為例,雖說曾經在電視益智節目「危機邊緣」(Jeopardy!)中獲勝,但也是在「危機邊緣」的特殊遊戲規則之下,甚至更改遊戲規則後方才達成。IBM浮誇的商業宣傳,將Watson包裝為近AGI的模型,然而事實上仍只是有著限定功能的子系統,難達AGI的普遍與通用性。
當一個人無法區辨與之對話的對象是一個機器人或真實人類,便可推定該機器人具有「智慧」。大眾對人造「智慧體」的瘋狂、涂林測試自身的侷限性,使得越來越多開發團隊,例如Joseph Wizenbaum的聊天機器人ELIZA,透過精心設計、改良使用者界面(user interface)迷惑視聽,製造「有意識」的假象;而在這層假象之下,正如Wiener的觀察,是「無助的」(helpless)AI──不是被束縛或殘缺的個體,而是稱不上有自主意識、能為理性所動的個體,依然仰賴人類智慧,包含那些我們刻意或無力隱藏的黑暗面。
這並非杞人憂天,而是正在發生的事實。人手一支智慧型手機,讓我們可以輕易地記錄自己的生活點滴,並以高品質的數位影像或音訊珍藏。然而這一切的背後其實需要付出龐大的代價:個人隱私在人臉辨識與大數據監控系統下淪為空想;生成對抗網絡(Generative Adversarial Network,GAN)的影像合成技術,讓過往「有圖為證」的法律體系與相關鑒偽技術顯得彆扭也不合時宜。
而即使真的有那麼一天,AGI成為可能,而不再是胭脂濃抹的假貨,我們是否能夠駕馭這些工具而受益?在這個網路時代,資訊可以多種形式傳播與儲存,破壞硬體,並無法有效地消滅或隔離AI。換句話說,當AI具有意識並視同另一個體時,我們似乎缺乏有效的手段與處罰來規範AI的踰矩行為。
於是乎,我們創造的,已經不是另一種類人個體,而是一種全新、與我們的價值觀毫無交集、對死亡無所畏懼、沒有愛恨情仇的物種,並在不久的將來,反過來改變我們的生活方式。
編譯來源
D. Dennett, “Will AI achieve consciousness? Wrong question,” WIRED, 2018.
(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)