你相信AI嗎?AI仍需要人類「掛保證」

分享至

單憑技術發展,並不足以讓人們信任AI,那麼,到底什麼才是讓人相信的關鍵?一篇2023年關於信任的社會學發表,調查橫跨17個國家的人們對於AI的態度是如何,研究結果發現有「值得信任的人」參與AI的研發、使用與管制,仍是AI取得信任的關鍵。

撰文|謝達文

 

來源:MotionElements

 

近來許多報導、評論,都提到AI可能會接管人類生活的許多面向,而這個趨勢衍生一個問題:人們真的「信任」AI做出這些決定嗎?或者說,在什麼條件下,人們會更信任AI?

 

信任的三個基礎

簡單來說,社會科學家將「信任」理解為「在這段關係中,願意讓自己脆弱(vulnerable)」──有些事情對我們來說很重要,出錯可能會帶來麻煩,但我們願意相信另一個人「不會讓我們失望」,會把這些事情做好(可參考Schilke, Reimann, and Cook 2021的理論整理)。

有一些人在任何狀況下都更容易信任其他人,但經常,我們的信任是針對特定的對象和任務。我們的日常生活中,會信任廚師不會使用壞掉的食材,也信任醫師有一定的醫術和醫德,能好好幫我們看病,但未必信任他們幫我們看管財物。

我們怎麼知道某些人針對某項任務值得信任呢?過去的研究指出,至少有三個因素很重要:

首先,這個人過去與我合作的紀錄,讓我們可以判斷他是否可信。因此,人們會更信任長期的夥伴,因為前100次合作都忠誠的人,我們更有理由相信他第101次合作也會好好做。

其次,這個人多在乎我們之間的關係,讓我們可以判斷他是否敢「亂來」。所以我們會信任未來需要與我們長期合作的人,甚至是有求於我們的對象,因為他們不敢輕易「亂來」,以免關係破裂。

最後,這個人與我之間處在怎樣的網絡關係中,可以作為判斷他是否有動機為了名聲好好做──雖然對方過去可能不曾與我合作,未來也未必會直接與我合作,但如果我們都是「同一個圈子的人」,他「還要在這個圈子混」,我們就更有理由認為他必須要不負所托,以免在圈內名聲受損(台語所謂「留一寡乎人探聽」)。

 

AI要獲得信任,必須仰賴人為監督

從上面的討論可以發現,AI要能取得大多數人的信任,可能有困難。從第一個因素來看,AI過去給的答案是否可信,或許可能是一個標準,但AI對於多數人來說,都還是很新穎的事物,應用在過去未曾應用的領域,因此很難有「紀錄」可供檢討,何況AI做出的「決定」是否妥適,經常也很難直接驗證。至於第二和第三個因素,麻煩甚至更大,因為AI不會在意自身跟我們的長期關係,也沒有自身的名聲要顧(哲學的討論可參考Graham 2023),這樣一來,我們怎麼敢相信AI?

Gillespie等人(Gillespie et al. 2023)主持的研究團隊,針對17個國家,調查超過17,000人對AI的態度,調查結果顯示,要讓人們信任AI,可能需要「值得信任的個人或組織」在後方掛保證。

舉例而言,AI近來已經被運用在人事管考工作上,而當被問到在這方面,適當的經理人與AI分工方式應該採取怎樣的比率,最多人、將近一半(45%)選擇的選項是「人類75%、AI 25%」,另外有35%選擇「人類、AI各半」;換言之,認為可以由AI佔主導地位的人,只佔一成出頭。人們其實想讓AI參與管理工作(只有8%選擇必須要全人類),但仍然希望人類(在此指的是實際上要跟員工有長期關係、必須負責任的經理)佔主要角色。

此外,「誰來掛保證」也很重要。一般而言,一個國家的人民越信任政府(比如中國、印度、新加坡),就會更信任政府開發的AI,而普遍對政府信任越低的國家(如南非、美國、日本),則比較不信任政府開發的AI。整體而言,全球這17個國家的人們通算,最受信任的AI開發者是國立大學(79%以上受訪者有中度至高度的信心)和國際研究機構(76%),政府(64%)和商業組織(56%)雖然也獲得不少人信任,但信任程度明顯較低。

人們也普遍支持,由政府、獨立機關或官民合作,管制AI的使用。只有少數國家(新加坡、中國、印度)有比較多人支持「無須管制」,多數國家的多數人都期待要有管制者,才能讓他們更信任AI的運作。整體而言,17個國家的受訪者中,贊成無須管制的只佔17%,各種管制的支持度則都在六至七成以上。

總結要讓人們信任AI,不能只依靠技術發展本身,而仍需要有值得信任的人,參與AI的研發、使用與管制,出面掛保證、承擔責任,人們才會真正信任AI。

 


參考資料(依文中出現順序)

  1. Schilke, Oliver, Martin Reimann, and Karen S. Cook. 2021. “Trust in Social Relations.” Annual Review of Sociology47: 239-259.
  2. Graham, Mackenzie. 2023. “ChatGPT Can’T Lie to You, but You Still Shouldn’t Trust it.” The Conversation. Retrieved from: https://theconversation.com/chatgpt-cant-lie-to-you-but-you-still-shouldnt-trust-it-201127
  3. Gilespie, Nicole, Steven Lockey, Caitlin Curtis, Javid Pool, and Ali Akbari. 2023. Trust in Artificial Intelligence: A Global Study. The University of Queensland and KPMG Australia.

 

(Visited 168 times, 1 visits today)

分享至
views