科技巨頭聯合打造AI規範,是自律還是規避?

分享至

2023年7月,AI產業的四大巨頭:OpenAI、Anthropic、微軟、google聯手組成「前沿模型論壇」,研討對於前沿模型的管控方式,確保前沿模型能以安全且負責的方式發展。然而,這也引起不少專家學者的不安與質疑,認為巨頭公司的這些動作,是為了取得政府與民眾的信任,相信他們能夠以自律取代管制。當本次論壇討論出的四大目標公開,又再度引起了討論,因為裡頭的前三項目標都沒有具體、清楚的說明實際執行的細節,讓人不免擔憂他們的終極目標是否真的是「球員兼裁判」。該論壇究竟是AI巨頭履行社會責任還是一場陰謀、政策擬定者又該如何面對,這些都是未來值得好好觀察的重點。

撰文|謝達文

今年 (2023) 7月底,AI產業的四大巨頭:OpenAI、Anthropic、微軟 (Microsoft) 和Google,聯手組成「前沿模型論壇」(Frontier Model Forum)。根據他們的說法,這個論壇的目的,在於「確保前沿AI模型能以安全且負責任的方式發展」。

來源:MotionElements

一方面,這似乎是一個好消息──領頭的企業意識到自己的社會責任,願意投入時間和精力,研究AI對社會的影響,以及人們可以如何因應。而由實際研發AI的公司自己擔負起管理的任務,也似乎再好不過,畢竟,有誰比這些公司更懂AI?又有誰更可以確保研究結果真的能落實於業界?

但是,也有專家擔心,在歐盟、美國密切研擬AI管制的此刻,四大巨頭這樣的動作可能另有居心,是一場公關戰役,要打造「我們可以自我管理」的形象,並且主導管制相關的討論,希望能降低政府管制的力度,甚至可以在一些領域規避管制。

 

針對最前沿的模型,打造「解方的公共圖書館」

四大巨頭此次聯手,並不是針對所有的AI研發與應用,而只針對最「前沿」的AI。根據他們的說法,這意味著「能力超越現有最進步的模型,而且可以用於多項任務」的模型。換言之,他們並非著眼於現在既有的模型,而是針對目前尚未被研發、未來可能出現的高效能模型。

在這樣的目標設定下,前沿模型論壇目前只由這四間公司組成,並未邀請其他研發AI的公司或研究單位。目前,這個新單位也還沒有與外部的學者或公民團體合作,但四大巨頭在聲明中指出,他們未來會組成諮詢委員會,也會出資與公民團體合作,不過會涵蓋哪些專業領域、哪些關懷、甚至哪些國家的專家與團體,則仍然未定。

根據Google發言人的說法,這個組織的目的,在於針對高階AI的風險與應用,打造「解方的公共圖書館」,讓眾人可以參考。不過具體而言,這是什麼意思仍然有待釐清;尤其,如前所述,這個組織所針對的,本來就不是一般的AI研發、應用,而是針對最高階的模型。目前,這種模型只有極少數公司有能力開發,並沒有太多「公共」、中小型研發者可以參與的空間。考量到這一點,所謂「公共圖書館」的構想會如何實現,更是有待觀察。

 

列出四大目標,但足夠清楚嗎?

四巨頭在這次合作中列出了四大目標:

  1. 推進AI安全相關研究,促進前沿模型的研發能以負責任的方式進行,同時降低各種風險,並且打造對「模型能力與安全性」獨立且標準化的評估。
  2. 找出最佳做法 (best practices),讓前沿模型的研發與應用能以負責任的方式進行,並幫助公眾瞭解此項科技的本質、能力、限制與影響。
  3. 與政策制定者、學者、公民社會與不同公司合作,分享關於信任與安全風險的知識。
  4. 支持研發各項科技應用,以回應社會面對的最大挑戰,比如氣候變遷的緩解與因應、癌症的早期偵測與預防,以及對抗數位威脅。

這四項目標顯然立意良好。第一項目標是一般討論的安全性問題,最直接對應到「AI會不會帶來危險」這種疑慮;第二項目標是第一項的延伸,並且增加了與公眾溝通的面向;第三項目標宣示要與不同的人們合作、討論;第四項目標則積極地思考AI可以如何做有益的應用。

但這四項目標顯然也有其侷限 (Heath, 2023):第一、二項目標只強調「負責任」,並沒有清楚揭示他們設想中AI可能引發的危險,比如許多人關注的隱私權、偏誤與不平等、智慧財產權、對勞工影響等問題,都沒有被明確列入,讓人無法確定四大巨頭所謂的「負責任」,具體而言是什麼意思,是否只是著眼於抽象的「AI毀滅人類」等等討論。第三項目標嚴格說起來不是目標,而是手段,而四大巨頭並沒有清楚說出(或至少舉例),他們希望透過這些與各界的合作做到什麼(比如納入不同國家的觀點?納入研究者與小公司的觀點?納入女性和少數族群的觀點?)。唯獨第四項目標是當中最清楚的,強調的是AI要如何用於解決最迫切的問題,可能是目前最讓人期待的。

 

是想自律,還是想規避管制?

外界對於四大巨頭此一動作的另一大質疑,在於懷疑他們的意圖不純,假借自律之名,其實是要做出「我們自律就行了」的樣子,藉此規避政府管制 (Hammond, 2023)。如果只有四大巨頭引領相關的討論與政策研究,更可能帶來的危險,是使得所有管制的討論與規劃,都圍繞在四大巨頭自己所設定的議題上,使得四大巨頭的考量會被優先考慮 (Milmo, 2023)。

就科技業而言,最有名的前例,就是長期以來,各國政府也是普遍讓社群媒體平臺自我管制,相信社群媒體公司「自律」的種種動作,直到近兩三年發現失敗,各國才開始逐步展開更為嚴謹的立法,研擬對社群媒體的管制。有人因此擔心,AI管制會不會走上社群媒體的老路?尤其四大巨頭對於「負責任」的定義仍不明確,未來他們會不會把管制時人們著眼的主題,都引導到「AI毀滅人類」的遙遠討論,忽略AI目前已經引發的問題與疑慮?

目前,四大巨頭只有承諾會與G7(七大工業國)、OECD,以及美國─歐盟貿易與科技理事會合作,但具體的合作方式尚不明確,應該仍在研議當中。而科技公司究竟是會讓管制更好、更符合實際需求,還是意圖取代管制,好讓自己能「球員兼裁判」,正取決於四大巨頭與這些政府與國際組織的實際合作方式為何,這些政府又能不能取得更多方的觀點,不會只被科技公司、尤其是四大巨頭的考量牽著鼻子走,這些都是未來值得持續觀察的重點。

 


參考文獻

  1. Heath & Ryan, 2023, “New group to represent AI "frontier model" pioneers.”, Axios.
  2. Hammond & George, 2023, “Top tech companies form group seeking to control AI.”, Financial Times.
  3. Milmo & Ryan, 2023.,“Google, Microsoft, OpenAI and startup form body to regulate AI development.”, The Guardian.

 


📖 延伸閱讀:《選戰中可能的AI濫用》、《歐盟AI管制新進展:全面禁止人臉辨識?

(Visited 92 times, 1 visits today)

分享至
views