AI、人類與社會

分享至

編譯|陳文翊

●從益智遊戲到應用

在1997年IBM的Deep Blue擊敗西洋棋的世界冠軍。2011年,IBM開發的Watson在美國的益智節目Jeopardy!中,挑戰電腦運算能力回答富有背景意義或雙關等複雜的問題,擊敗了兩位衛冕者;在2016年DeepMind團隊開發的Alphago挑戰了人們視為博大精深的圍棋。不同於象棋跟西洋棋以先擒王為勝,圍棋以獲取最大領域者為勝,為此必須考量全局局勢方能作出正確判斷,而這是傳統程式難作到的。原本各界並不看好Alphago,但完全出乎意料地4:1擊敗南韓棋王李世乭。之後DeepMind團隊開發出進階版的Alphago Master以3:0擊敗中國當今最強的棋手柯潔,近來該團隊甚至開發出自我學習的系統Alphago Zero,能力甚至凌駕Alphago Master。

以上種種大大炒熱了人工智慧(Artificial intelligence,以下簡稱AI)這項名詞,但撇除AI在智能上驚人地成果,我們在日常生活中也處處可以見到AI的相關應用。較廣為人知的像是運用於醫療,提供醫師診斷建議;或是影像辨認,例如幫助面試官判斷面試者的臉部表情,以判斷他的真實感受;還有無人車、無人機等發展,除了當作乘載工具外,亦可用於巡邏。另外還有協助律師處理文件、資訊的系統;或是銀行提供客戶的語音辨識系統,讓客戶不必記住密碼便能使用服務。此外還有諸多應用,遍及許多行業,而且範圍持續擴大中,可以預見未來AI將全面地影響人類社會。

●Narrow AI & General AI

AI的強大也讓人忍不住開始擔心,AI會影響人類社會到甚麼程度?類似電影《魔鬼終結者》的情節不斷出現在各類科幻創作中。事實上當今的AI應該稱作「窄AI(narrow AI, or weak AI)」,與「普通AI(general AI, AGI or strong AI)」不同,它們其實不能理解操作者輸入給他們的文本、字句、數據的意思,而缺乏編織認知能力。窄AI只能用來執行特定的任務,透過統計方法估算出機率後,實行機率最高的選項為結果。近年艾倫人工智慧機構〈全名Allen Institute for Artificial Intelligence,簡稱AI2,後面會再提到〉曾提供五萬美元獎金,吸引可以寫出可以通過美國八年級標準自然科測驗(standard eighth-grade science test)軟體的團隊,但即使只拿多選題當作考題,還是沒有軟體得到超過60%的分數。也就是說AI尚不具備一個十歲小孩之程度,比如選擇一本書的某一章閱讀,然後回答與章節內容相關的問題。雖然AI利用深度學習(Deep learning)的方法在特定的領域達到驚人的成果,但還無法作更為複雜的互動式學習,像是從對話的情境、理解閱讀的文本、判讀的圖像等平常人類習慣獲取資訊的方式,目前AI仍欠缺與人腦相同的自然語言及圖像理解之廣度與通用性,也就是常識。幾個AI相關的組織對其成員實施調查,詢問這些研究人員對於是否會出現超越人類的智慧有甚麼看法,大多數人都認為未來十年內不會出現人類等級的AI,但至於這樣的AI會不會出現、甚至會不會出現超越人類的AI,卻沒有一個大多數研究人員都達成的共識。

●AI可能存在的風險

但其實現在有比是否會出現超人類AI更值得關注的問題,就是AI的強大功能會產生甚麼樣的風險?專家認為主要的風險有兩種,其一是出現自動化武器(autonomous weapon),一旦有心人士開發出來,且不易關閉的話,將不可避免地造成重大傷亡;其二是即使AI設定成正向之目標,但其執行之過程卻可能產生負面的影響。這樣的例子很多,像是要求無人車載乘客至指定目的地,系統選擇了一條近,卻會穿越危險區域的路徑,以至於人員財產的損失,還有當無人車發生意外時的責任歸屬,該是車的擁有者還是系統的開發者?另外的例子是,輸入的資料可能有不可預期的偏差,例如銀行的自動借貸系統,即使沒有預先在系統中設定特定的變數,但在統計的過程中發現,像是居住地在某區域的民眾還款情況較差,以至於後來居住該區域的民眾想申請貸款,會直接被系統拒絕。又或者是AI自動化帶來的方便性,將會使得原本是由人去做的工作轉由機器或軟體去執行,導致這些人失業。以及隱私的問題,很多AI依賴網路接觸資料並分析,但如果沒有做好加密、保護這些資料,則有可能被惡意的第三方攻擊且竊取。

●面對AI的風險

為了處理上述風險,理想辦法應當是將不同領域的專家,例如工程師、計算機科學家、社會學家、心理學家、經濟學家及法律工作者集結起來,討論AI可能造成短期或長期的影響,預測AI發展的軌跡及造成的結果,以先防患於未然,像是可以預期AI會讓某些工作消失,但也促使新的工作產生,要如何輔導轉型或培育新工作型態的人力是需要考量的。而科學家與工程師也應參與檢測軟體的驗證、有效性及安全性等項目,思考哪些設計容易產生不安全的系統,要盡可能避免。好消息是,目前有許多組織已著手進行相關的研究。在2008年,「人工智慧發展協會(Association for the Advancement of Artificial Intelligence)」在史丹福大學發起一項百年的AI研究計畫,此計畫每五年統整一次目前相關研究的發展並發表報告,預計持續進行一百年,甚至更久。在2014年,微軟的聯合創始者Paul Allen組織了AI2,目標是以找出AI對人類社會潛在益處為宗旨。目前著手許多專案,如前所述,期望創造出能通過一般標準智力測驗的AI、有常識的AI,其首席執行長Oren Etzioni並提出AI守門員(AI guardian)等想法,也就是發展監視、檢測系統,確保執行中的AI合乎倫理及道德。在2016年,業界、學界及民間組織的代表共同成立了非營利組織Partnership in Artificial Intelligence to Benefit People and Society(簡稱Partnership on AI),參與者包括了幾個著名的科技企業例如Google、Mircrosoft、Facebook、Amazon跟IBM等,設立的目標旨在建立AI最佳的行為準則,透過不同的發展團隊競爭又互相溝通之過程,確保AI對人類長期發展是有利的,也期望增進社會大眾對於AI的理解。

不可否認的,AI的發展日益精進,甚至到了超乎想像的地步,但比起恐慌,更應該有的態度是去思考如何安全的處理衍生出的問題。未來AI的發展需要人們的智慧、好奇、小心與合作。

 

參考資料:

  1. AI, people, and society
  2. Research Priorities for Robust and Beneficial Artificial Intelligence
  3. BENEFITS & RISKS OF ARTIFICIAL INTELLIGENCE
  4. AI Is Not out to Get Us

 

加入好友

(Visited 44 times, 1 visits today)

分享至
views