當AI成為人的那一天:未來世界的人與社會

分享至

彙整/田育志
整理自2019.12.28 2019AI嘉年華〈當AI成為人的那一天:未來世界的人與社會〉

不論是線上購物時網頁下方自動推薦的商品,或是解鎖手機的人臉辨識,又甚至能陪伴我們的聊天機器人,AI其實早已在我們生活中隨處可見。假設真的有那麼一天,AI通過了圖靈測試,人類再也無法輕易分辨與我們對話的是人還是機器,我們該如何與它們相處、互動?無異於人的AI又會對這個社會造成什麼影響呢?由「臺大科教中心」與「臺大人工智慧中心」共同舉辦的「2019 AI嘉年華」,在活動的最後邀請到法律、傳播、工程等各界專家學者,以「當AI成為人的那一天:未來世界的人與社會」為題深入對談。

◆主持人

林守德(臺灣大學資訊工程學系教授)

◆與談人

丁川康(清華大學動力機械工程學系系主任)
王維菁(臺灣師範大學大眾傳播研究所所長)
江雅綺(臺北科技大學智慧科技法律政策研究中心主任)
黃世昭(Appier人工智慧應用研發副總裁)
黃銘傑(臺灣大學法律學院特聘教授)

 

林守德:AI的發展會不會對人類造成危害?產生的負面效果又是該由誰來負責?會不會因此限制了AI的發展?

黃銘傑:法律上賦予自然人「法人格」,使人享有權利的同時,也得負擔相對的義務與責任。把這樣的概念放到AI上,歐盟也的確正在討論是否要賦予AI法人格,以便未來AI發展到一個地步且造成負面影響時,能對該行為究責。然而,至少就目前看來,AI缺乏自我意識,因此即使有犯罪能力,也難以認定有犯罪意圖,而後者才是許多犯罪行為的構成要件。當然,實務上如何給予相對的處罰或矯正也會是另一個問題;或者,往另一個方向思考,成立一個基金或保險,以社會救助的方式來共同分擔AI的社會成本,也不失為選項之一。

王維菁:未來AI會帶來什麼影響?雖然目前還處於主觀想像的階段,但既然這是屬於科技的範疇,自然要有一套嚴謹的科學方法來評估。例如AI其實是基於既有的歷史資料來給出判斷(是否核發信貸、假釋與否),如果原有的資料就已存在偏差,就應由此著手,思考如何揪出並避免其中的偏誤被錯誤地傳承。於是,建立一套規範AI開發的行動準則、一套能在事前揪出錯誤的標準程序,都是與AI本身的技術發展並行不悖的。而這也反映出目前AI研究的另一個問題:AI團隊的成員多來自資工相關領域,過於單一的人口組成是否意味著對人文或社會議題的忽視?這是後續組建團隊時應該考慮的問題,才能讓科技與社會兩者間有更多的對話。

丁川康:科學與技術本身是中性的,就像運用牛頓力學可以研發出武器、愛因斯坦質能方程(E=mc2)是原子彈的理論基礎,但並不能因此否定牛頓力學或愛因斯坦質能轉換公式的必要性。機器學習很重要的一項能力就是「通則化」(generalization)──以有限的範例去推測未知的事物。這種向外推論會不會造成人類或機器本身意想不到的結果,甚至負面影響,可能性是存在的,但人類在其中扮演著非常重要的把關角色。

 

林守德:AI的訓練通常需要大量資料,在資料取得的過程中,或會侵犯個人隱私。如何在資料取得與隱私間取得平衡呢?

江雅綺:目前大家常有一個印象:極權國家因為不重視隱私人權的保障、因此可以任意取得大量資料發展人工智慧科技。不過先前《紐約時報》的記者就曾利用大量公開資料,定位出美國總統川普某天的移動軌跡。這代表著許多商業應用程式,早已在不知不覺間收集了比一般人想像中還要龐大的數據。所以不要以為個資保障的問題只發生在某些極權國家,在商業與科技密不可分的現代,個人資料在使用者不知不覺之中,有越來越集中在少數菁英企業的趨勢。不過基於上述認知,建立隱私保障與個資保護的法律標準,也是一個趨勢。例如歐盟的GDPR,以及美國加州的隱私權法案,都是例子。

黃世昭:根據過去在矽谷與韓國最大電商公司Coupang等知名公司工作的經驗,各國法律雖對於個資利用的規範不盡相同,但多仍是以保護個人隱私為優先。以業界的角度而言,我們不怕法律太過嚴謹,反而擔心籠統的法律條文以及朝令夕改的不確定性。以目前任職的沛星科技為例,我們避免收集電子郵件或電話號碼等明文個資,即使有需要,也會有相應的加密與保密措施防止外洩。

黃銘傑:目前法界有兩派意見相互抗衡。樂天派,如美國,傾向對於不可預見的後果不給予不必要的框架與限制;當然,也有較嚴謹的一派,如歐洲,則認為AI對社會的影響甚鉅,應該未雨綢繆、防微杜漸。我個人比較偏向前者:與其對於可能產生的負面效果過度恐懼、給予不必要的框架與限制,不如制定合適的自律規範,讓學界或開發者依循,保有AI自由的研發空間。

林守德:AI早已在你我生活中隨處可見,未來只怕會更加普及。AI普及後對人類和這個社會會帶來什麼影響呢?

王維菁:以新聞傳播領域為例,文本自動生成、新聞產製的自動化,機器必然取代部份人力。除了失業潮,取代記者的資訊工程師如何確保設計出來的程式能寫出符合社會期待的新聞?新聞的倫理與規範是否也該被重新檢視?這些都是未來需要關切的問題。另一方面,資訊過濾也是另一個危機。推薦演算法考慮的是使用者的偏好,於是持續餵養類似的資訊給使用者,形成所謂的「同溫層」。尤其在社群媒體興起後,意見兩極化的現象更是明顯,兩端群體沒有意願也無從了解彼此,再加上Deepfake等假資訊充斥,自然也無法就公共議題有建設性的討論。對於仰賴公眾共識的民主社會而言,有非常大的影響。

黃銘傑:AI的強項之一便是「分類」(classification),當實際付諸商業應用時,無論是推薦演算法或信用評比,都是將人依照特定特質加以分類,除了強化族群間的分歧(英國脫歐公投與美國2016總統大選的選舉操作),也與憲法所強調「人生而平等」的概念相違背。在這樣的狀況下,無論是制定相關法律或修正現有體制,我們必須有自己及時的因應之道。例如先前提到AI取代人力所帶來的失業潮,「全民基本收入」(Universal Basic Income,UBI)是目前常被討論的選項之一,甚至成為2020美國民主黨黨內總統參選人Andrew Yang的政見之一。

江雅綺:目前我是一個樂觀主義者。AI的應用雖然帶來許多新問題,但鑑諸過往人類的科技發展,也是不斷發生新的問題、同時不斷適應與提出解決方法的過程。不管是網路虛假訊息傳播的自動化、或是演算法的決策,倘若我們能理解AI運作的原理、重新檢討或建立相對應的法律或制度,AI的未來發展應該能夠對社會帶來正面的影響。

 

林守德:假如真的有那麼一天,AI通過圖靈測試,人類無法辨識與自己交談的對象是否是AI,或所閱讀、聽到的創作其實是AI所生成,有哪些需要注意與值得探討之處?

丁川康:過去我們曾以AI生成許多帶有Piet Mondrian(荷蘭籍畫家,以幾何圖形構成的『格子圖』著稱)風格的畫作,並與原作放在一起,讓一群受訪者來區辨哪些是真跡、哪些是AI的仿作,最終人類的成功辨識率低於二分之一。所以某種程度上,我們可以說AI其實「已經」通過了圖靈測試。而現在有些廣告或是電影已採用AI所創作出來的配樂,這也衍伸出一系列版權歸屬的棘手問題。應該付費給AI,還是AI的開發者呢?當未來AI真的發展出自我意識,是否會跳出而與自己的創造者爭取這筆版權費用?問題的癥結點仍在於「AI的身分定位」這項議題上。

長遠來說,或許未來AI不僅會變成人,更有可能變成神,就像科技不只來自於人性,更可能回過頭來重新形塑人性。只是觀察近年來的AI研究,許多參與其中的個人或團隊其實都有與幾位與談人相似的看法與顧慮,也正努力在技術層面上予以修正。所以整體而言,AI的發展還是朝向令人樂觀的方向邁進。

(Visited 92 times, 1 visits today)

分享至
views