每個人都可以說上一兩句?跨國民調揭密各國民眾如何看待AI

分享至

如果我問你:「你對『AI是什麼』相當瞭解嗎?」你會怎麼回答呢?著名民調公司Ipsos曾分別在2021年與2023年在31國進行這樣的測試,而結果可以說是出乎意料。平均來說,2023年的民調結果有67%的人民認為,自己相當瞭解AI,但這有可能嗎?再從兩次民調結果數據來看,2023年與2021年的數據相比,竟然只提高了3%,要知道,2022年年底,ChatGPT橫空出世,可以說2023年是AI蓬勃發展的一年,僅僅增加3%的民眾瞭解AI顯然說不過去。這樣的數據意味著什麼呢?這是否代表,我們自以為對於AI議題的擔憂,其實很有可能根本並沒有直擊核心呢?

撰文|謝達文

來源:MotionElements

這些年來,人人好像都能對AI說上一兩句話,而跨黨派的政治人物更都常以AI為關鍵字,向選民表達自己站在時代尖端,對最新的科技已經有所掌握。然而,在世界各國,人們對AI是否已經有足夠的認識,或者至少能知道自己「不知道」什麼,進而已經能有相對確定的判斷,尤其可以對是否支持特定管制有明確的想法?

關於這點,答案很可能是否定的。在去年,著名民調公司Ipsos所執行的跨國民調中,有一波在7月發布、涵蓋31國 (Ipsos, 2023a),另一波則在11月發布、涵蓋30國 (Ipsos, 2023b),都有AI相關的題組,恰可當作參考。雖然相關題項的主要設計目標是要瞭解人們對於AI影響的評估,但意外地,從結果當中卻也同時看見人們「以為自己已經知道什麼」,與現實情況有多大的差距。

 

你知道AI是什麼嗎?各國的人們很可能都過度自信

2023年年中,在31個國家之間通算,人們自認「對『AI是什麼』相當瞭解」的比率來到67%、高達三分之二,而且只有日本不到半數,但也來到43%。在其中24個國家,認為自己相當瞭解AI的人數比率超過六成,其中有13個甚至在七成以上,最高的國家是印尼,高達84%,南非和泰國則以78%緊追在後。

這麼高的數據應該足以讓所有關注AI的人高呼「不可能」,不論是英國、美國,還是印尼、南非,怎麼可能有六、七成以上的人對於AI有足夠的掌握能力?顯然,與其說這呈現了人們對AI的真實理解,不如說人們普遍高估自己對AI的認識程度,幾乎在這31個國家皆然,或許只能說在日本稍稍不那麼嚴重一些。

同一份問卷中還有一些其他數據,足以進一步間接佐證這個數字很可能是來自人們的過度自信。一方面,相對於2021年年尾施測的成果,31國通算,人們自認「對『AI是什麼』相當瞭解」的比率竟只有提升3%。然而,AI相關資訊正是在這一兩年間高度爆炸,比如引爆媒體討論和大眾想像的ChatGPT,就是在2022年11月推出,正介於兩期調查之間。考慮到這點,若要說這段時間內「真正」瞭解AI的人只提升3%,也實在引人費解;數據之所以會如此穩定,更為合理的解釋恐怕是,會「自認」瞭解AI的人就是這麼多,所以一年半之後的增幅才如此微小。

另一方面,當問卷問的問題稍稍具體一些、改請人們評估自己是否「知道哪些種類的產品和服務會使用AI」時,回答「知道」的比率就明顯降低,31個國家中有17國降到半數以下,更有11國在四成以下,包含美國、法國、德國等都在這個行列之中,通算的百分比也只有剛好過半的51%。當然,這樣的數字也很可能是高估的結果,但更大的重點是,兩題之間的差距更足以顯示「對『AI是什麼』相當瞭解」這題的數據應是出於各國人們普遍過度自信──畢竟,不知道AI可能應用在哪些地方,怎麼可能算是「對『AI是什麼』相當瞭解」?這裡最大的訊息,仍是人們「自以為」已經理解AI。

 

針對具體的風險,人們很可能只有模糊的直覺

這樣的「膨風」,也使得人們在解讀問卷中其他結果時必須格外小心:人們所表達出的信任與不信任、期待與擔憂,很可能只是反映他們更整體的世界觀,是一般而言對特定機構一般性的信任與不信任,以及對於科技進展一般性的期待與擔憂,而非來自對AI的理解。

比如11月份的民調,30國通算,有超過69%的受訪者表示「非常擔心」或「有些擔心」AI將被用於自動化武器,如果單看美國,數據也是與平均接近的70%。乍看之下,這似乎是人們有普遍共識、相當擔憂的議題,但現實上,至少在美國的新聞媒體上,相關議題其實鮮少被討論,即使在加薩走廊戰事在美國引發重大爭論的此刻,「以色列軍方如何利用AI」也只是極小眾的關注面向。進一步來說,即使是在政策圈和科技新聞上引起較多討論的議題,比如「AI被用於攻擊基礎建設」、「AI產出深偽,散布造假資訊,操縱公眾輿論」、「以AI為基礎的監控侵犯隱私權,而且可能被濫用」,在30國當中回答「非常擔心」或「有些擔心」,分別是74%、75%、73%(美國的數據是76%、74%、74%),竟也都與自動化武器的比率相去不遠。

考慮到這些數字,與其說人們真的是基於對AI的理解、平常就對這些事情如此擔心,更合理的解釋是,多數人們其實是在聽到這個問題時,才剛開始思考這些事情發生的可能性,在直覺下覺得自動化武器等問題聽起來很嚴重,或一般性地擔心大企業乃至敵國政府可能會帶來負面衝擊,於是才高比率選擇回答擔心,而且在每一題都宣稱自己擔心。

而倘若這樣的解讀正確,對於政策制定者和倡議者有什麼樣的啟示呢?這或許意味著,政治人物含糊宣稱「要因應AI帶來的風險」可能有一定的市場,但如果是實際要讓人民「付出成本」,比如要求民間企業投注成本提升資安,要求人們暫時不要使用有隱私疑慮的AI產品,或者對假訊息散布有更強大的管制,包含推出類似《數位中介法》的法規,也都很可能無法獲得支持,反而會面臨重大的誤解和反彈。反過來說,下一階段的社會溝通,不論是針對AI的機會還是風險,政府和倡議者很可能必須以更清楚、具體、白話的方式,向人們溝通「這項管制」是要解決「怎樣的問題」,或者是要打造「怎樣的機會」,才可能讓有關的人們知道相關政策為何與自己切身相關,社會支持的基礎也才可能更為堅實、更為穩固。

 


參考文獻

  1. Ipsos. 2023a. “Global Views on A.I. 2023: How people across the world feel about artificial intelligence and expect it will impact their life.”
  2. Ipsos. 2023b. “World Affairs: Citizens of 30 Countries Assess Threats and Engagement in International Affairs.”
(Visited 204 times, 1 visits today)

分享至
views