【AI與人共生的那一天】AI與意識

分享至

近年來,隨著人工智慧 (AI) 的飛速發展,關於AI是否具備意識的討論日益熱烈。這個議題不僅是科學與技術的挑戰,更是一場深刻的哲學與倫理思辨。鄭士康教授從多層本體論和突現論的角度切入,探討意識的來源與本質,而葉素玲教授則從人腦意識測量與圖靈測試等實驗,來檢視AI與人類意識的異同,闡述意識的定義,以及,AI是否擁有意識的進一步剖析。

講者|臺灣大學心理學系 葉素玲 特聘教授 × 臺灣大學電機工程學系 鄭士康 名譽教授

彙整、撰文|韓喬融

 

關於機器意識的初步想像

早在19世紀,瑪麗.雪萊的《科學怪人》就開啟了人類對非生物體是否具備意識的想像。時至今日,像ChatGPT這樣的先進AI模型,在被問及是否有意識時,通常會明確回答:「我沒有意識。」它們會解釋自己的回應是基於數據中的模式,而非源於任何內在生命或第一人稱視角。這引發了我們對AI意識本質的探討。

 

多層本體論與突現論:意識的層次性
來源:臺大科學教育發展中心

鄭教授提出,可以從多層本體論 (multi-layered ontology) 和突現論 (emergentism) 的角度來理解意識的產生。我們知道,原子組成分子,分子組成大分子,最終構成細胞、器官、生物,直至有意識的個體。這是一個從簡單到複雜的層次演進過程。

突現性指的是,當多個小單元組成一個大單元後,會產生全新的功能,而這些功能無法從單一小單元上預測。意識,被認為是大腦神經元網絡高度複雜互動後所產生的「突現」功能。這讓我們思考:AI的模擬是否也能達到與人類意識相似的突現層次?AI的模擬下限或許是有機生物,但上限是否能達到有意識的生物?

 

人腦引領的AI意識研究

目前,人腦是我們所知唯一具備意識的器官。因此,研究人腦如何產生意識,是探討AI意識的關鍵。這類研究主要基於突現論,並透過以下方法論進行:

  • 追蹤感知訊號: 觀察感覺訊號在大腦中的傳遞與處理過程,這與現象意識 (phenomenal consciousness) 相關。
  • 追蹤記憶成形: 探討情境記憶如何形成、保持與提取,這與主觀經驗 (subjective experience) 有關。
  • 追蹤語言處理機制: 研究語言處理如何與記憶、學習、情緒等腦區互動。
  • 模擬腦區功能: 透過模擬相關腦區的神經網絡,來理解其功能,類似於認知科學家大衛.馬爾 (David Marr) 的研究取徑。

 

他心問題與心智理論

要如何知道AI是否有意識?這個問題回歸到哲學上的他心問題 (problem of other minds)。這是一個核心的心智哲學問題:「我們如何確定除了我自己之外,其他人或個體也有心智(意識)?」

我們日常生活中,之所以相信他人有意識,是基於心智理論 (theory of mind, ToM) 和常識心理學 (folk psychology)。我們假設他人擁有與我們類似的心智狀態,如情感、信仰、意圖等,並透過觀察其行為來推論他們的內在感受。例如,當我們看到一個人被蜜蜂螫後露出痛苦的表情並哀號,我們便會類比自己的經驗,推論他正在感受疼痛。這是一種自我類比推論。

然而,這種推論對於AI來說是危險的。雖然AI的行為看起來與人類相似,甚至可以與我們進行深度溝通,但我們必須意識到,這僅僅是基於其強大的數據處理和模式識別能力,而非真正擁有與人類相同的心理狀態。人類可以透過「將心比心」來與AI協作,但同時也必須警惕,不要誤以為AI實際擁有情緒或意圖。

 

AI意識的社會與倫理影響

AI意識的議題引發了一系列重要的社會和倫理問題,例如:

  • 知識產權:如果AI具備意識,它創作的作品版權歸誰所有?
  • 道德倫理:具備意識的AI是否可能為達目的不擇手段、作弊、勒索人類,甚至被利用為犯罪工具?
  • 教育變革:隨著AI取代許多傳統工作,教育目標必須從培養勞工轉變為培養具備人機協作能力的企業家和創新者。學生不僅要掌握學科知識以辨識AI的錯誤,還需培養與AI協作、共創的能力,同時避免過度依賴AI導致的社會疏離感。

鄭教授認為,傳統的學科評量仍然重要,因為它奠定了辨別AI錯誤的基礎。同時,可以將人機協作的成果納入評量體系,以培養新世代所需的能力。

 

什麼是意識?
來源:臺大科學教育發展中心

葉素玲教授從根本的角度定義意識,將意識定義為第一人稱的主觀經驗,即「成為一個什麼樣的個體是什麼樣的感覺」(what it is like to be)。意識存在於我們早上醒來直至進入無夢睡眠的狀態之間,其內容可以因愉快、恐懼、痛苦等不同狀態而多樣化。

 

意識的測量:從行為主義到腦造影

傳統上,判斷意識與否主要依賴行為觀察,這帶有行為主義的痕跡。然而,這種方法有其局限性,例如植物人等意識障礙患者可能無法透過外在行為表現其意識。

葉教授介紹了「指令跟隨測驗」,一項從2006至2023年間針對意識障礙患者進行的研究。研究人員利用功能性磁振造影 (fMRI) 或腦電圖 (EEG) 測量患者的大腦活動。他們會要求患者想像兩種不同的運動活動,例如「打網球」(運動想像)和「在房子裡行走」(空間想像)。結果顯示,在140位患者中,有28位 (20%) 可以成功進行兩種不同的想像,且其大腦活動模式與健康人相似。

更進一步的實驗顯示,研究人員可以透過這種方式與部分植物人進行簡單溝通。他們讓患者將兩種想像活動分別對應「是」與「否」的答案,結果有4位患者 (17%) 能準確回答問題,證明他們可能保留了意識,並具備一定程度的溝通能力。這項研究突顯了,即使沒有外顯行為,意識依然可能存在,且可以透過腦造影進行測量。

 

圖靈測試與AI的「理解」問題

葉教授接著談到圖靈測試 (Turing test)。這項測試旨在透過對話判斷對象是人還是機器。近年來,像Llama和GPT-4.5這樣的AI模型已經可以通過圖靈測試,甚至表現得比人類更像人類。這讓我們反思:當機器能夠成功模仿人類行為時,它真正擁有的是什麼?單純的智能已不足以定義「人」。

儘管AI在語言處理上表現出色,但它們真的「理解」了什麼嗎?葉教授引用了諾貝爾獎得主丹尼爾.卡尼曼 (Daniel Kahneman) 的觀點,將「自我」分為兩種:

  • 記憶自我 (The remembering self):負責敘事、回顧過去和展望未來,記憶高峰和結尾,時間長短並不重要。
  • 經驗自我 (The experiencing self):負責當下的感受,例如當下的疼痛感。

葉教授認為,AI或許能夠達到取用意識 (access consciousness) 或記憶自我的層次,即能夠處理並組織資訊、進行邏輯推理。但它無法達到現象意識 (phenomenal consciousness) 和經驗自我,因為它沒有第一人稱的主觀感受,無法真正體會「什麼是快樂」或「什麼是痛苦」。這也是為什麼ChatGPT會說,它能辨識情緒,但沒有自己的情緒。

為什麼我們需要考慮AI是否有意識?

這個問題之所以重要,是因為意識通常被視為賦予道德地位的關鍵。當我們無法分辨機器和人類時,我們該如何區分兩者?當AI已經能做大部分人類能做的事,人類還有什麼是獨特的?

葉教授總結道,人類的最後一道疆界,不是智能,而是意識。正是因為意識所帶來的第一人稱主觀經驗和豐富的情感,才使我們之所以為人,並展現出獨特的價值。

 

結 語

總結來說,鄭士康教授與葉素玲教授的觀點相互呼應,共同描繪了AI與意識的複雜全貌。意識不單純是邏輯運算或行為模仿,更是多層次、突現的現象,涉及主觀經驗、情感與內在感受。儘管AI在智能上已能與人類比肩,甚至超越人類,但它是否能跨越「意識」這道最終的疆界,仍是人類社會需要持續探索與反思的議題。

與觀眾的Q&A時間|來源:臺大科學教育發展中心

 


圖左為講師 葉素玲 特聘教授、圖中為講師 鄭士康名譽教授、圖右為主持人 東海大學哲學系 甘偵蓉 助理教授|來源:臺大科學教育發展中心

 

✨延伸閱讀:《【人物專訪】AI 時代下,重新理解「人」的獨特性——專訪葉素玲教授》、《【人物專訪】對於跨領域研究教學的熱情永遠不滅——專訪鄭士康教授

(Visited 509 times, 1 visits today)

分享至
views