一份給立法者的人工智慧指南

分享至

編譯|陳明佑

究竟立法者需不需要認真了解人工智慧科技呢?

去年九月我參加了一場由法律學者主辦,在台灣大學舉行的「人工智慧相關法律議題工作坊」,最有趣的事情是,有立法者親自參與了這場工作坊。這場工作坊不只討論了人工智慧在民法、個資法、智慧財產法、國際法等領域未來可能產生的諸多爭議,並由法律學者們提出了構想中的因應方式,也概念性地探索了許多人工智慧潛在的倫理議題,舉例來說,我們應不應該保障人工智慧的著作人格權?我們又應不應將司法案件交由人工智慧判定?工作坊除了內容相當有啟發之外,也讓人想到台灣關於人工智慧法律的未來--我們的立法者是否想過人工智慧可能造成的法律問題?對人工智慧又是不是已有足夠的了解去制定與其相關的政策呢?

我們應該都能同意,如果任何一個國家的立法者對人工智慧沒有充分的認識就貿然制定政策,一定會引發許多災難和不必要的紛擾,或許你能在科技影集《黑鏡》裡找到一些例子。借鏡國外,英國巴斯大學(University of Bath)的學者近期就發表了一份報告[i],答覆英國上議院希望了解人工智慧現時境況的請求。底下就讓我帶大家來回顧這份報告吧!

●第一部份:科技變化的步調

首先針對人工智慧發展的現況與近未來可能出現的狀況,報告中指出,其實我們應該將人工智慧看作是工業革命這類科技進化的延續,也就是說,人工智慧即使如今看似有空前絕後的自我學習能力,它畢竟和先前的科技進化沒有根本上的不同。報告以此說明,我們其實不須擔憂某個國家,或某間公司,會因為掌握到最先進的技術而立刻主宰世界。畢竟,任何科技進步都是在拓展人類的計算能力,而計算程序既然是一種物理程序,具體涉及了硬體面的計算機能源、儲存空間、計算時間,它的進步其實是可以預測的。

不過,報告仍要提醒我們,人工智慧在5至20年內仍可能大幅改變我們的生活,例如有了超強的人工智慧(想像一個不只能在棋藝征服人類的Alpha Go!)之後,原先僅由少數人獨占的知識將可能擴散開,在新的資訊交流模式下,或許全球的民主政治都會經歷不小波動。社會科學界和人文學界就正急切找出社會的政治、經濟等面向上即將來臨的挑戰。而特別重要的是,由於社會將快速轉型,報告指出,我們必須確保社會系統內部有足夠的彈性,讓每個人若失去工作,都能隨後在經濟體系裡找到新的位置。為了作到這件事,具體需要的可能是:充足的最低薪資、充足的個人儲蓄、良好的社會安全網等。

再來,報告討論了現時社會對人工智慧的狂熱。一方面這樣的熱度是合理的,因為人工智慧科技如今早已是全球各處最富有公司們的核心工具。但另一方面報告認為,我們也不需要過度擔憂人工智慧會自己佔領世界,畢竟它還未能擁有自主能力,況且,所有人工智慧可能造成的危險都不會超過人類已經做過的事,也不會超過人類對於不安全數位系統的過度依賴[ii]

●第二部份:人工智慧對社會的影響

這裡報告要回應的問題有兩個,一個是「大眾如何因應人工智慧被廣泛應用的未來」,一個是上述情況裡,「社會上誰是最大受益者,誰又是最大受害者,又要如何緩和這種不平衡」。

關於大眾如何因應,報告認為勞動者的再培訓很重要。而關鍵是必須先降低社會的貧富差距,促進人才流動,讓擁有創新能力的人可以發揮所長,並且有能力僱用其他人。只要經濟、政治上願意付出足夠努力去處理社會位置重分配的問題,人工智慧帶來的社會衝擊就能被緩和下來。而關於受益/受害問題,報告則認為,我們所有人其實都是受惠者,因為,即使是窮人的壽命也在科技革新中得到延長。不過報告仍要指出,若我們想緩和科技進步底下可能帶來的社會衝擊,當務之急仍是因應貧富差距和環境永續的問題。

●第三部份:公眾認知

最後談及是否需要有關單位再行努力,以改善大眾對於人工智慧的理解,對此,報告作者則表示,政府、大學、媒體的合作下,英國在這方面已經取得不錯成績。

在《大數據的傲慢與偏見[iii]》這本書中,擁有哈佛博士學位的專業數據科學家凱西.歐尼爾(Cathy O’Neil)基於自己對演算法的深刻認識與觀察,相當清晰地指出了大數據時代,

人類若過度依賴演算法會產生的危機。書中經典的例子之一[iv]是,Google的廣告服務--所謂精準廣告(targeted advertising)--會根據使用者不同的社經狀態來給予不同訊息,而許多「學店」廣告往往就丟向了貧窮而需要教育的人,然而這些學店並不能提供她/他們真正需要的援助,例如知識培養或技能訓練,反而是收取了高額學費而只給了她/他們一張無用的學位證書,這件事將使得日後社會的階級流動更加困難。

我們曾經期望科技進步會帶來更民主、更自由的社會,然而,當任何科技被應用至社會裡,總是免不了與人性交織而有了或善或惡的效果,不是絕對美好的。人工智慧即是一例,錯誤地仰賴人工智慧,反而可能助長貧富不均、社會權力集中等等現象。

或許唯有讓立法者對人工智慧有更好的理解,才可能讓人工智慧不成為一種傷害社會的黑魔術,而成為我們曾殷切盼望,能革新世界的幻美魔法。

註解:
[i]       原文見:How policymakers should approach AI
[ii]      報告作者有意指出,資安漏洞的危險遠比人工智慧可能製造的問題更大,其實他想談的是英國的加密政策,允許政府可以要求任何通訊服務提供者(如WhatsApp)移除資料上的加密。可參考:https://www.theguardian.com/technology/2017/mar/29/uk-government-encryption-whatsapp-investigatory-powers-act
[iii]     《大數據的傲慢與偏見》,凱西.歐尼爾著,許瑞宋譯,大寫出版,2017年
[iv]     同ii書,這個例子在第四章「宣傳機器:網路廣告」,從第88頁開始

 

加入好友

(Visited 12 times, 1 visits today)

分享至
views