讓AI解決你的頑固與迷思
我們在日常生活中常常會聽到一些教育以及心理學方面的誤解或迷思,例如「人類只用了10%的大腦」、「人類大致分成左腦思維以及右腦思維」。而這些迷思在即使已經有了明確的科學證據出現之後,仍然還是被廣為傳播。至於究竟該如何「校正」這些誤解呢?使用AI工具是否也可以成為其中之一個解方呢?
撰文|王冠云

人類為什麼會產生這些誤解與迷思?
Corbett等人 (2026) 關心於如何以AI工具破除教育以及心理學方面的迷思,而關於這類型的錯誤迷思的形成原因,其中一個原因可以用「雙過程理論 (Dual Process Thoery)」解釋。人類的思考可分為兩套系統,一套為較慢、可進行反覆推理的系統,另一套是快速可自動化依照直覺判斷的系統。許多迷思的形成是因為它們有非常直覺可理解的模式,就會被快系統所處理,而不會經由慢系統被理解。尤其是具有個人特殊鮮活案例的故事,更容易留下誤導人心的印象,例如民間醫藥偏方就是因為容易理解,且身邊又有人因此改善症狀,因而形成醫療偏方的迷思。
而心理學方面也提出了一個概念——「確認偏誤 (confirmation bias)」,人們往往會更容易傾向於去尋求、注意、記得他們已相信事物的資訊,所以這會深化已經形成的誤解,也就是說,人們會更容易去尋求資訊來鞏固自己原本的迷思。不過當人們能夠有效地進行校正,或者是對於習慣進行分析性思考的人們而言,就比較不容易掉入這樣的認知陷阱。而採用適當的反論文章 (refutation texts) 或者是對話性的論證等等,也都可能可以有效遏止頑固迷思的形成。
破解迷思的方法:主動學習和個人化回饋
Corbett (2026) 等人指出,要破除迷思、進行誤解校正的方法主要有兩種方式,包含主動的參與 (active engagement) 以及個人化回饋 (personalized feedback)。主動參與的認知機制是來自於人們能透過主動參與而提升學習效果,具體方式包含問問題、解釋概念或者是實際應用知識。而個人化回饋的部分,則是若有一對一的家教式對話,甚至是能根據學習者的概念進行反駁,也能進行誤解校正。
而要能讓規模化且產生個人化的對話式教學,就很適合導入智慧家教系統 (intelligent tutoring system, ITS),並且使用大語言模型 (large language models, LLMs) 來進行教學導入。為了測試大語言模型所能帶來界正效果,Corbett等人 (2026) 採用實驗方法,設計了三種實驗情境:「破除迷思AI對話」、「普通中性AI對話」以及「教科書式反論文章」,每個情境分別找了125位實驗參與者。首先會先測試他們原先對於各種不同可能產生迷思的概念的信念,總共包含了16種不同的描述,例如以「人類只用了10%的大腦」這句描述為例,請參與者以0-100分評斷這個敘述為真或為假。
採用「破除迷思AI對話」可以阻斷錯誤迷思的認知歷程
在Corbett等人 (2026) 的研究中,「破除迷思AI對話」的情境中,會讓實驗參與者與含有LLM的AI對話機器人進行三輪的對話,讓參與者提供他們針對不同迷思的看法與解釋,AI的對話會針對參與者的誤解提出反論、解釋以及證據。「教科書式反論文章」則是讓參與者閱讀一個基於事實並且可以降低誤解的文章,而文章的寫法就像是教科書一樣,並且作為對照組,同樣也是經由AI生成。而「普通中性AI對話」則是與誤解無關的課題,僅僅只是和AI進行閒話家常,這組資料用以作為實驗控制的基線 (baseline),取得普通人對於迷思的誤解程度。
在實驗參與者經歷了實驗情境之後,Corbett等人 (2026) 會馬上再次進行迷思檢驗,並且也在10天後以及2個月後進行追蹤測試。研究結果發現,進行完實驗之後,「破除迷思AI對話」組別的實驗參與者,對於迷思的錯誤信念較另外兩組實驗情境有顯著的降低。不過,過了2個月再次追蹤,「破除迷思AI對話」組以及「教科書式反論文章」的效果就沒有顯著差異,但是效果仍然存在,對於迷思的誤解信念分數還是低於「普通中性AI對話」。而Corbett等人 (2026) 也針對實驗情境的對話或教科書反駁文章沒有提到的迷思,進行前後測的信念測試,若沒有經過對話或反論,都不會對實驗參與者產生效果。
Corbett等人 (2026) 的研究指出,個人化的AI引導,可以協助用來校正一些深植在人們腦海中的錯誤信念。之所以能達成這樣的效果,Corbett等人 (2026) 基於認知科學的理論,整理了三個原因:第一、因為反論的對話機制可以阻斷自動化且快速的思考,那麼可以阻斷確認偏誤的形成;第二:因為AI可以創造難以避免的個人化認知衝突,也就是說,當AI詢問使用者「什麼證據支持你相信?」的時候,使用者必須重整資訊並且找出具有說服力的訊息,因此不得不去正視自己既存在腦海中的錯誤訊息;第三:由於對話具有即時性,那些即時的回饋也能夠避免誤解一直不斷地被累積。
最後Corbett等人 (2026) 也提出了研究可能的限制,針對實驗參與者對於AI的信任度,以及AI所使用的文字中,哪些文字成分會影響到參與者的認知機制,仍然不甚明朗。例如使用者可能從文字中的邏輯推論性來判斷,也有可能只是單純受到文字流暢度的影響。而針對年齡組的影響,也尚未有明確的分析支持,但也都是可能可進行的研究。
參考文獻
