【AI新浪潮:生成式變革】科技治理的轉型:人工智慧的機會和挑戰

分享至

生成式AI為社會發展帶來新契機的同時,也可能有哪些風險?國際上監管AI的方式,對台灣社會有什麼啟示?成功大學敏求智慧運算學院助理教授李韶曼、臺北醫學大學醫療暨生物科技法律研究所教授李崇僖都認為,生成式AI時代下,價值判斷的能力是人類珍貴之處。

講者|成功大學敏求智慧運算學院 李韶曼 助理教授 × 臺北醫學大學醫療暨生物科技法律研究所 李崇僖 教授

彙整、撰文|謝馥伊

 

近年AI浪潮之下,AI監管議題成為各國政府不得不著手處理的課題,監管方式亦受到模型開發社群、使用者高度關注。在台灣,也已有立委提出一版《人工智慧法》草案,行政院亦曾表示2024年提出行政院版草案。不過,國際立法趨勢究竟為何?有哪些尚未被充分討論的議題?使用生成式AI,又有哪些該留意之處?

 

近年生成式AI治理的國際討論焦點
來源:臺大科學教育發展中心

長期參與國際人工智慧與法學相關社群的李韶曼觀察,2023年11月在倫敦的人工智慧安全高峰會上,AI加速假訊息傳播、影響民主是討論焦點。李韶曼觀察,「因為今年是很多國家舉行大選的年度,比如DeepFake(深偽技術)被濫用,對全球選舉與民主造成相當負面的影響,就有很多科技大廠宣示願意一起加入防範。」

法律背景出身、長期關注人工智慧醫療領域的李崇僖則指出,對於醫學文獻摘要是否使用生成式AI撰寫,也受到高度討論。今年歐盟發布的學術寫作指南 (Guidelines on the responsible use of generative AI in research developed by the European Research Area Forum) 當中,便督促研究者需要揭露生成式AI撰寫的使用。「尤其醫學領域的期刊對人類社會的影響非常大的。醫師決定治療方式時,常常會先去看醫學期刊上發布的病例。文獻檢索出來可能好幾百篇,醫師未必有時間看整篇,常常只讀摘要,如果有很多摘要都顯示某某藥物的療效很好,可能就作成醫療決策了。所以使用AI撰寫論文與否,影響非常大,可能攸關人命。」

 

各國AI治理的共通點:引導性守則多於法律明文規範
來源:臺大科學教育發展中心

擅長以自然語言技術分析法律文本的李韶曼,以「AI模型開發者」視角分析各國AI治理方式。她發現,目前各國政府較常見的做法為發佈具有彈性的引導指南,以行為準則 (soft law) 進行規範,如:台灣國科會便發布許多相關的AI使用準則。美國也是一例。2023年總統拜登頒布一系列關於AI的行政命令之前,便邀請了非常多大型科技公司會談,要求這些大科技公司和政府分享AI模型開發的進展,先形成共識,再發布行政命令。今年 (2024) 3月13日歐盟議會通過的《人工智慧法案》(Artificial  Intelligence Act),反而是目前較少見、以明確法律條文 (hard law) 規範AI開發與使用。

細究其原因,不外乎法案牽涉多元複雜的利害關係人,以及AI技術快速發展的特性。李韶曼引述資料指出,2023年美國人工智慧相關的遊說活動相對前一年增加 1.85倍;2023年6月,歐盟發出的一封公開信當中,揭露西門子、家樂福、雷諾、空中巴士等公司曾對歐盟人工智慧相關法案提出擔憂,表達法案可能導致法遵成本過高。

李韶曼說:「立法是一個非常昂貴而且緩慢的過程。一個法案要變成法律,背後涉及非常多的利害關係人,有時候光是排入程序本身就需要很高的社會動員成本。這樣。尤其一個領域快速發展,有非常多難以在事前預測的風險時,要把風險形諸於白紙黑字、又是大家可以接受的規範方式,其實非常困難。」

值得慶幸的是,2023年人工智慧安全高峰會上,28個國家和歐盟皆認同未來要逐步形成AI治理方針的跨國共識,共同面對AI的跨國治理課題。

 

值得更多關注的AI治理議題:AI文化敏感度
來源:臺大科學教育發展中心

不過,李韶曼也指出,有部分議題雖然重要,但尚未成為國際AI治理討論重點,如:AI模型的文化敏感度。李韶曼近期的研究發現,最常見的Llama 2模型,因多數的訓練資料為英語,導致模型在文化多元性的表現不如預期。以波羅的海國家為例,語言模型幾乎不太能夠表達他們的文化價值、不會依照他們的文化價值來回應。李韶曼說:「這會影響假訊息應對的能力。但(語言模型的文化敏感度)並不是現在的國際主要規範制定者所看重。」

李崇僖也認同,若大型語言模型都是由特定國家的資料訓練而成,使用者收到的回應就會依照特定的文化、價值選擇。「比如說英語系國家、美國所主導訓練出來的,你問它一些問題,它回答給你的觀念、思考的方向就是美式的。」

 

生成式社會之下,保持自主思考、為決策負責

近年來,許多組織正在考慮或已經導入AI輔助完成日常工作。不過,李崇僖強調,「生成式AI產生的敘事,會決定我們怎麼想,有很高的政治性,跟過去的AI技術很不一樣。」

講座最後,李韶曼和李崇僖都呼籲,不要輕易將價值判斷與自主思考的能力讓渡給AI。AI並不完美。人們應該要為自己的決策負責,也為AI的錯誤負責。

兩位老師回答觀眾的精采問答|來源:臺大科學教育發展中心
三位老師超可愛的合照♥|來源:臺大科學教育發展中心

 


圖左為主持人臺灣海洋大學海洋法律與政策學院 江雅綺 教授、中間為講師 李韶曼 教授、圖右為講師 李崇僖 教授|來源:臺大科學教育發展中心

 


✨延伸閱讀:《【人物專訪】以AI工具探究法學問題——專訪李韶曼教授》、《【人物專訪】在生物科技與法律之間跳躍——專訪李崇僖教授

(Visited 218 times, 1 visits today)

分享至
views