AI管制的可能模式——內部程序、外部審計、公平交易
AI是複雜的新興科技,未來會受到怎樣的管制難以預知。本文從既有的管制政策出發,提醒讀者可以注意三個主要的政策工具:內部程序、外部審計、公平交易。
撰文|謝達文
決定AI未來的人不只在矽谷,也在布魯塞爾和華盛頓特區──歐盟和美國政府如何管制AI,將決定AI發展的疆界與重心,也影響AI的應用將會多安全,對於社會不平等又有多大的影響。就連AI巨頭、ChatGPT發明者OpenAI的執行長Sam Altman都簽署公開信,倡議政府必須管制AI;Altman在美國國會參與聽證會時,也再度重申管制有其必要。
但是,AI不但新穎,而且牽涉廣泛、內容複雜,具體而言會如何管制至今仍不明朗。Altman與三百多位專家、從業人員共同簽署的公開信中只提到希望「開啟討論」,並沒有提議任何具體的管制方案。在聽證會上,政治人物也跟Altman一樣沒有提出太多管制的細節,其中一位參議員(John Kennedy,共和黨籍、代表路易西安納州)甚至直接詢問Altman,如果要創建一個新的政府機構監管AI,Altman是否有推薦任何人擔任機構首長 (Heather Tal Murphy, 2023)。
不過,AI並不是第一個牽涉廣泛、內容複雜的新興產業,過去政府也曾管制過具有類似特性的科技發展和經濟活動,因此瞭解政策制定上既有的「工具箱」,可以幫助我們討論和預判可能的管制型態 (Anjana Susaria, 2023;Marietje Schaake, 2023)。
從內部開始要求負責任
基於AI相當複雜,連創造者都無法保證AI執行的結果,要管制「AI運作絕對不能出現某些結果」是相當困難的事情,政府難以執行,企業也難以遵守。目前,只有像中國這樣的政府,會基於言論審查的目的,選擇採取這樣的管制型態(可以參考本站先前的文章《當AI遇上審查──中國特色「人工智能」的額外成本》,謝達文,2023)。
各國很可能採取的管制模型是從「源頭」做起,不是要求結果必須如何,而是要求研發和運用AI的企業和政府單位負起責任,在運作時就採取一定的方式「管控風險」,並讓公司內的領導人負起相關責任。
這樣的作法,會類似於美國管制公司財政的方式,或是歐盟、英國管制數位產業的方式。以美國管制公司財政為例,2002年兩黨合作通過的《沙賓.歐克斯法案》(Sarbanes-Oxley Act),就是要求公司財務監管必須符合特定的標準,比如要求公司制定合格的「內部程序」以確保財務報告準確性,或是要求公司確保外部審計員獨立,規定公司高階主管必須親自確保財務報告準確、親自負起責任。
目前,歐盟和美國政府都已經開始探索可能的風險管控模式,也就是要如何建立「值得信任」 (trustworthy) 的AI體系。以美國為例,國會指示國家標準暨技術研究院 (National Institute of Standards and Technology, NIST) 研擬AI風險管制的框架,已經在2023年1月公布。NIST的報告中提出了許多公司應該注意的事情,可能採取的具體作法包含:相關人員必須受過「AI風險」相關的訓練、要有專門的程序處理AI對第三方權益(比如隱私權、智慧財產權)的影響、要有「非第一線研發者」的內部專家固定參與風險檢核等等 (NIST, 2023)。而美國總統指派26位AI專家組成委員會,在2023年5月提出第一份對AI政策的建議報告,第一項建議就是政府應該鼓勵各公私部門單位都要採取NIST的框架 (National Artificial Intelligence Advisory Committee, 2023)。未來一個可能的管制方向,就是由國會立法或政府鼓勵,從源頭做起,要求使用AI的單位都必須符合這些條件。
建立外部審計制度
另外一個可能的政策工具則是「外部審計」,也就是說,除了要求公司內部程序符合一定規定之外,政府也可能要求公司定期接受外部人員的檢驗,而外部人員則必須取得政府的執照。
這樣的做法,也是參照對於公司財務治理的模式──對於外人而言,公司的內部財務運作跟AI一樣,看起來經常像是黑盒子,大家只看得到結果,不知道結果產生的過程。而AI的結果來自其演算法,一些專家因此建議,「AI演算法」就跟「公司財務流程」一樣,應該接受外部稽核 (Guszcza et al., 2018)。
Guszcza等人認為,這樣的外部稽核團隊可能是跨專業的,不只有電腦科學的專家參與,還有社會與行為科學學家、法律學家、倫理學家等等,檢驗各種不同問題:數據資料的來源是否有偏誤,因而可能帶來不平等?基於我們對人類心理的瞭解,這樣使用AI會不會帶來誤導甚至欺騙的效果?這樣運用是否符合倫理?會不會有侵犯隱私權、智慧財產權等風險存在?長期而言,甚至可以考慮讓AI稽核與財務稽核一樣,成為一門專門的專業。
公平交易法制的介入空間
最後,AI管制相當可能採取的另一個額外模式,是建立在現行法律中關於公平交易、反壟斷(反托拉斯)相關規定的基礎上,進一步專門為AI管制做出特別規定。
為什麼AI管制可能會採取這個路線?從現在的發展我們已經可以發現,AI、特別是功能最強的AI很可能會成為壟斷產業,原因是「進入成本」太高。美國的公平交易委員會主席就警告,要創建一個好的AI,光是取得訓練資料就已經需要耗費大筆的成本,儲存與處理又是另一筆成本 (Wolfe & Michaels, 2023)。以當下的狀況來說,大型語言模型和生成式AI一般性運用的市場,很有可能是由Microsoft/OpenAI加上Google兩家分食。
「進入成本高」這件事情本身可能難以處理,在現行法制上的一個可能作法,是要求公司對於「資料取得模式」和「演算法設計」更為透明。另外,政府單位也可能介入併購,避免其他科技巨頭透過併購AI公司而更為強大,造成市場壟斷更為嚴重 (Robertson, 2023)。
結 語
當然,我們無法完全預知未來管制政策會採取什麼樣的模式,實際的政策會是由各方協商而成,但是,「要求程序」、「外部審計」和「公平交易」是三個過去政策制定者已經使用過的政策工具,未來將如何運用在AI管制上,相當值得觀察。
參考文獻
- Heather Tal Murphy, 2023, “Sam Altman Charmed Congress. But He Made a Slip-Up.”, Slate.
- Anjana Susaria, 2023, “How can Congress regulate AI? Erect guardrails, ensure accountability and address monopolistic power.”, The Conversation.
- Marietje Schaake, 2023, “We need to keep CEOs away from AI regulation.”, Financial Times.
- National Institute of Standards and Technology, 2023, “Artificial Intelligence Risk Management Framework.”
- National Artificial Intelligence Advisory Committee, 2023, “National Artificial Intelligence Advisory Committee: Year 1.”
- James Guszcza & Iyad Rahwan & Will Bible & Manuel Cebrian & Vic Katyal, 2018, “Why We Need to Audit Algorithms.”, Harvard Business Review.
- Jan Wolfe & Dave Michaels, 2023. “FTC Chair Lina Khan Vows to Protect Competition in AI Market.”, The Wall Street Journal.
- Adi Robertson, 2023. “The US government is gearing up for an AI antitrust fight.”, The Verge.
📖 延伸閱讀:《當AI遇上審查──中國特色「人工智能」的額外成本》、《你相信AI嗎:AI仍需要人類「掛保證」》、《AI用了我的創作,怎麼辦?──生成型AI的智慧財產權爭議》