AI管制的可能模式——內部程序、外部審計、公平交易

分享至

AI是複雜的新興科技,未來會受到怎樣的管制難以預知。本文從既有的管制政策出發,提醒讀者可以注意三個主要的政策工具:內部程序、外部審計、公平交易。

來源:MotionElements

撰文|謝達文

決定AI未來的人不只在矽谷,也在布魯塞爾和華盛頓特區──歐盟和美國政府如何管制AI,將決定AI發展的疆界與重心,也影響AI的應用將會多安全,對於社會不平等又有多大的影響。就連AI巨頭、ChatGPT發明者OpenAI的執行長Sam Altman都簽署公開信,倡議政府必須管制AI;Altman在美國國會參與聽證會時,也再度重申管制有其必要。

但是,AI不但新穎,而且牽涉廣泛、內容複雜,具體而言會如何管制至今仍不明朗。Altman與三百多位專家、從業人員共同簽署的公開信中只提到希望「開啟討論」,並沒有提議任何具體的管制方案。在聽證會上,政治人物也跟Altman一樣沒有提出太多管制的細節,其中一位參議員(John Kennedy,共和黨籍、代表路易西安納州)甚至直接詢問Altman,如果要創建一個新的政府機構監管AI,Altman是否有推薦任何人擔任機構首長 (Heather Tal Murphy, 2023)。

不過,AI並不是第一個牽涉廣泛、內容複雜的新興產業,過去政府也曾管制過具有類似特性的科技發展和經濟活動,因此瞭解政策制定上既有的「工具箱」,可以幫助我們討論和預判可能的管制型態 (Anjana Susaria, 2023;Marietje Schaake, 2023)。

 

從內部開始要求負責任

基於AI相當複雜,連創造者都無法保證AI執行的結果,要管制「AI運作絕對不能出現某些結果」是相當困難的事情,政府難以執行,企業也難以遵守。目前,只有像中國這樣的政府,會基於言論審查的目的,選擇採取這樣的管制型態(可以參考本站先前的文章《當AI遇上審查──中國特色「人工智能」的額外成本》,謝達文,2023)。

各國很可能採取的管制模型是從「源頭」做起,不是要求結果必須如何,而是要求研發和運用AI的企業和政府單位負起責任,在運作時就採取一定的方式「管控風險」,並讓公司內的領導人負起相關責任。

這樣的作法,會類似於美國管制公司財政的方式,或是歐盟、英國管制數位產業的方式。以美國管制公司財政為例,2002年兩黨合作通過的《沙賓.歐克斯法案》(Sarbanes-Oxley Act),就是要求公司財務監管必須符合特定的標準,比如要求公司制定合格的「內部程序」以確保財務報告準確性,或是要求公司確保外部審計員獨立,規定公司高階主管必須親自確保財務報告準確、親自負起責任。

目前,歐盟和美國政府都已經開始探索可能的風險管控模式,也就是要如何建立「值得信任」 (trustworthy) 的AI體系。以美國為例,國會指示國家標準暨技術研究院 (National Institute of Standards and Technology, NIST) 研擬AI風險管制的框架,已經在2023年1月公布。NIST的報告中提出了許多公司應該注意的事情,可能採取的具體作法包含:相關人員必須受過「AI風險」相關的訓練、要有專門的程序處理AI對第三方權益(比如隱私權、智慧財產權)的影響、要有「非第一線研發者」的內部專家固定參與風險檢核等等 (NIST, 2023)。而美國總統指派26位AI專家組成委員會,在2023年5月提出第一份對AI政策的建議報告,第一項建議就是政府應該鼓勵各公私部門單位都要採取NIST的框架 (National Artificial Intelligence Advisory Committee, 2023)。未來一個可能的管制方向,就是由國會立法或政府鼓勵,從源頭做起,要求使用AI的單位都必須符合這些條件。

 

建立外部審計制度

另外一個可能的政策工具則是「外部審計」,也就是說,除了要求公司內部程序符合一定規定之外,政府也可能要求公司定期接受外部人員的檢驗,而外部人員則必須取得政府的執照。

這樣的做法,也是參照對於公司財務治理的模式──對於外人而言,公司的內部財務運作跟AI一樣,看起來經常像是黑盒子,大家只看得到結果,不知道結果產生的過程。而AI的結果來自其演算法,一些專家因此建議,「AI演算法」就跟「公司財務流程」一樣,應該接受外部稽核 (Guszcza et al., 2018)。

Guszcza等人認為,這樣的外部稽核團隊可能是跨專業的,不只有電腦科學的專家參與,還有社會與行為科學學家、法律學家、倫理學家等等,檢驗各種不同問題:數據資料的來源是否有偏誤,因而可能帶來不平等?基於我們對人類心理的瞭解,這樣使用AI會不會帶來誤導甚至欺騙的效果?這樣運用是否符合倫理?會不會有侵犯隱私權、智慧財產權等風險存在?長期而言,甚至可以考慮讓AI稽核與財務稽核一樣,成為一門專門的專業。

 

公平交易法制的介入空間

最後,AI管制相當可能採取的另一個額外模式,是建立在現行法律中關於公平交易、反壟斷(反托拉斯)相關規定的基礎上,進一步專門為AI管制做出特別規定。

為什麼AI管制可能會採取這個路線?從現在的發展我們已經可以發現,AI、特別是功能最強的AI很可能會成為壟斷產業,原因是「進入成本」太高。美國的公平交易委員會主席就警告,要創建一個好的AI,光是取得訓練資料就已經需要耗費大筆的成本,儲存與處理又是另一筆成本 (Wolfe & Michaels, 2023)。以當下的狀況來說,大型語言模型和生成式AI一般性運用的市場,很有可能是由Microsoft/OpenAI加上Google兩家分食。

「進入成本高」這件事情本身可能難以處理,在現行法制上的一個可能作法,是要求公司對於「資料取得模式」和「演算法設計」更為透明。另外,政府單位也可能介入併購,避免其他科技巨頭透過併購AI公司而更為強大,造成市場壟斷更為嚴重 (Robertson, 2023)。

 

結  語

當然,我們無法完全預知未來管制政策會採取什麼樣的模式,實際的政策會是由各方協商而成,但是,「要求程序」、「外部審計」和「公平交易」是三個過去政策制定者已經使用過的政策工具,未來將如何運用在AI管制上,相當值得觀察。

 


參考文獻

  1. Heather Tal Murphy, 2023, “Sam Altman Charmed Congress. But He Made a Slip-Up.”,  Slate.
  2. Anjana Susaria, 2023, “How can Congress regulate AI? Erect guardrails, ensure accountability and address monopolistic power.”,  The Conversation.
  3. Marietje Schaake, 2023, “We need to keep CEOs away from AI regulation.”, Financial Times.
  4. National Institute of Standards and Technology, 2023, “Artificial Intelligence Risk Management Framework.”
  5. National Artificial Intelligence Advisory Committee, 2023, “National Artificial Intelligence Advisory Committee: Year 1.” 
  6. James Guszcza & Iyad Rahwan & Will Bible & Manuel Cebrian & Vic Katyal, 2018, “Why We Need to Audit Algorithms.”, Harvard Business Review.
  7. Jan Wolfe & Dave Michaels, 2023. “FTC Chair Lina Khan Vows to Protect Competition in AI Market.”, The Wall Street Journal.
  8. Adi Robertson, 2023. “The US government is gearing up for an AI antitrust fight.”, The Verge.

📖 延伸閱讀:《當AI遇上審查──中國特色「人工智能」的額外成本》、《你相信AI嗎:AI仍需要人類「掛保證」》、《AI用了我的創作,怎麼辦?──生成型AI的智慧財產權爭議

(Visited 136 times, 1 visits today)

分享至
views