管制必然阻遏AI創新?對付「脫衣軟體」這樣的害群之馬,反而有助產業發展!
科技是把雙面刃,在帶給我們便捷、多彩的生活的同時,也有可能受到某些有心人士的利用,造成危害。如今的生成式AI越來越厲害,要產生各式圖片變得相當簡單,但…深偽技術也更加猖獗。曾經臺灣網紅的「換臉」事件震驚社會,而今各式「脫衣」網站、應用程式遍地開花。英國智庫成員便提出警告,呼籲政府、企業重視科技被不當濫用的情況,並應該加以管制。或許有些人會認為,「管制」將會阻遏AI創新,然而智庫團隊卻認為,適當的防範害群之馬,才能維持科技在民眾心中的正面形象,如此一來方能維持科技的持續進步。
撰文|謝達文
「我們不可以繼續卡在舊思維當中,認為你要不就支持創新,要不就支持保護公共利益,我們不該繼續認為這件事情是『政府vs企業』。絕大多數的科技公司希望他們提供的工具是被人們用來做好事,而在這方面,科技業也知道已經出現問題──『深偽先生』不是科技業的好代表,我認為科技業會想幫忙我們才對。」
說這句話的人是克斯提.伊內斯 (Kirsty Innes),她呼籲政府不要以為管制必然會遏阻創新,尤其如果管制的目的是要幫助科技業對付「濫用深偽技術」等等害群之馬,產業界甚至可能非常願意幫忙。(Hern, 2024a、2024b)
伊內斯說的話之所以重要,是因為她過去曾經擔任英國政府主管市場監理的高階文官,現在更是Labour Together此一智庫的研究人員,領導團隊研擬對英國科技管制的政策建議。該智庫與英國工黨領導人史塔莫 (Keir Starmer) 關係緊密,提出的政策建議經常得到採納,甚至被比喻為工黨政策的外包廠商 (Marr, 2024)。而工黨現在雖然仍是在野黨,但目前民調領先幅度高達兩成,若無意外,將會在年底之前取得政權。
在這個背景下,這種思維不單單本身就值得身在臺灣(或其他國家)的讀者參考,更很有可能會影響英國新政府具體的管制政策,進而對全球造成影響──英國雖然在管制上直接的影響力比不上美國甚至歐盟,在國際規範制定方面始終無法站上領導地位,但終究仍是不少科技人才的所在地,英國科技團隊也參與許多AI工具的合作研發,加上各科技巨頭也不可能輕易放棄英國市場,英國政府的管制策略因此仍然相當重要。(關於英國對於AI管制的議題,有興趣的讀者可參考《多麼痛的領悟:英國也想制定AI規則,卻發現美國無意讓位》
未經同意就用AI「脫人衣服」,目前已正在發生
而伊內斯的說法也並非僅僅停留在大原則的宣示,她在這段話中特別點名深偽技術,更已經在智庫帶領團隊準備出版的政策報告中,其中一項建議就將是要立法禁止所謂的裸露工具 (nudification),更通俗的講法就是脫衣 (undressing) 網站或應用程式。
裸露工具的使用方式相當簡單:使用者可以上傳人像照片,利用AI生成裸照,而要影中人擺出各種不同姿勢、或是改變背景當然更是簡單。這樣的工具現在在網路上已經開始流通,而根據網路數據公司Graphika的調查,單單2023年9月一個月之內,曾造訪脫衣網站的總人數就超過2千4百萬人,而在Twitter/X和Reddit等熱門網站上,脫衣應用程式相關的廣告也已迅速增加 (Murphy, 2024)。可想而知,必定會有許多使用者在未經當事人同意下生成各種色情圖片、影片,進而可以用於勒索恐嚇、復仇式色情(revenge porn,通常指分手後洩漏私密影片作為「報復」,或者藉此威脅對方就範)、校園霸凌等惡意行為之上。
過去市面上已經有所謂為色情影片換臉的「服務」,但生成式AI工具的技術革新使得深偽變得更逼真,而且成本更低,就連高中生都可以操作。此外,開源 (open source) 雖然有助於創新,是許多科技人相當鼓勵的作法,但確實也已經有許多裸露工具開發者得益於開源,可以在既有的、免費取得的語法之上開發他們的「產品」,大大降低開發的技術與資金需求,也是近來這類網站和軟體大幅增加的原因。
全面查禁之外,還要請開發者採取「合理防範」措施
對此,伊內斯的團隊建議必須全面查禁此類網站和軟體,而且要立即開始這麼做──「現在就把情況控制下來,能幫助我們避免其演變成長期的危機,一項前例就是線上詐騙,現在已經成為全英國最普遍的犯罪。」
除此之外,伊內斯的團隊還有一項主張:AI模型的開發商和伺服器提供者也必須負點責任。這些公司當然不可能全面防堵不肖人士濫用他們提供的服務,所以不能因為「結果上」出現這些濫用就懲罰他們,但在開發和營運的「過程中」,這些公司也該採取合理的防範措施,在技術上想一些辦法降低風險。對此,伊內斯的團隊也認為,未來這個模式更進一步可以套用到AI詐騙、干擾選舉等其他問題之上。
值得補充的是,這種著眼過程而非結果的管制模式並不新穎,過去常用於金融管制,而考慮到生成式模型的結果難以預測,「要求採取合理防範措施」的做法,未來也很可能成為AI管制的主流(關於AI管制的模式,有興趣的讀者請參考《AI管制的可能模式——內部程序、外部審計、公平交易》
防範害群之馬的管制,反而是科技業的「朋友」
智庫團隊相信,科技業應該會支持這樣的管制,這份報告的共同作者之一波薩 (Laurel Boxall) 就比喻,管制在這些問題上反而是創新者的「朋友」。
為何這麼說?關鍵在於「協助科技業建立公眾信任」之上,或者至少要確保公眾的信任不致崩潰。「像是上次的A-levels演算法問題(註:疫情期間,運用演算法協助大學入學考試評分,結果反倒造成種種混亂和不公平)那樣,一次次這種『運用科技工具,結果搞砸』的案例,都已經造就『再做錯一件事,人們就會開始抱持強大敵意』的公眾態度。」也就是說,人們如果看到太多科技帶來的「傷害」,很可能會轉而不支持科技業,反而造成更大壓力。
換言之,要為AI產業打造更好的環境,政府除了投資之外,要做得其實未必是一味鬆綁,反而也該協助並要求產業界繃緊神經──害群之馬越少,越能確保公眾對於科技業的支持,反而將更有利於創新。
參考文獻
- Hern Alex, 2024, “TechScape: Could a Labour ‘nudification’ manifesto bring more safety to AI?”, The Guardian.
- Hern Alex, 2024, “Labour considers ‘nudification’ ban and cross-party pledge on AI deepfakes”, The Guardian.
- Marr Andrew, 2024, “The battle for Keir Starmer’s soul.”, The New Statesman.
- Murphy Margi, 2024, “‘Nudify’ Apps That Use AI to ‘Undress’ Women in Photos Are Soaring in Popularity.”, TIME.
✨延伸閱讀:《多麼痛的領悟:英國也想制定AI規則,卻發現美國無意讓位》、《AI管制的可能模式——內部程序、外部審計、公平交易》