專家們,請抬頭看看! 那些重要與不重要的AI問題

分享至

專家們,請抬頭看看! 那些重要與不重要的AI問題

編譯/許守傑

令人沮喪的學術氛圍

「作者對於原創且具有高度動機的問題提出了解決方案,但這僅是一種應用,對於機器學習社群來說似乎意義有其侷限。」這則評論是Hannah Kerner投稿給「神經資訊處理系統會議」(Conference and Workshop on Neural Information Processing Systems,NeurIPS)後所得到的審查意見。Kerner是美國馬里蘭大學學院市分校(University of Maryland, College Park)的助理教授,專長是機器學習於農業監控和食品安全上的應用。這樣的評論讓她感到相當困惑:如果AI社群認為以機器學習解決重大的問題所帶來的意義有限,那麼科學家究竟該以什麼目標而努力呢?

Kerner只能猜測審查委員口中所謂「有意義的」研究,不外乎是開發出某種新的演算法,或對於深度學習而言,一種新的人工神經網路結構。然而這種求新求變的學術風氣,卻可能反過來禍害學術圈,譬如:些微或部份改變已發表的研究,灌水般地重複發表「新」論文、誘導式標題,或為爭奪排行而產出有瑕疵的學術成果,不僅將AI研究推向一條不歸路,也使得當前的許多研究已然與科學與社會脫節,忽略那些大眾真正關心的問題。

新應用的價值

許多人以為,所謂新應用,只是把已經存在的演算法或模型套用在新的事物上。然而事實上,因應這些新應用而生的新概念或影響力不容小覷。例如:2019年人類拍攝到的第一個黑洞影像,其實就是以機器學習模型整合、生成的;其他模型也被用來如預測分子的結構,在新藥開發中扮演著重要角色。AI近年來可說是大放異彩,取得了豐碩的成果。很難像想如果我們繼續將其擴展到各個領域,那麼人類可以有哪些突破性的發現。但現實是,這類的應用研究在主要學術會議上常常被邊緣化、排除在主流研究之外。從事新應用研究的研究人員或團隊難以出頭,從而大大降低了他們的動機。

此外,主流研究引以為傲的標準資料庫,其實嚴重脫離了現實。例如ImageNet、 COCO等資料庫,所蒐集的都是很乾淨、有明確標記或定義的資料,像是貓、狗、鳥等的圖像分類,十分適合理想化的理論研究。但是在面對現實世界的問題時,這些明確、清晰的類別反而顯得不合時宜,忽略了時間、空間與文化背景帶來的變化。然而大多數研究者在主流研究的影響下,非但未嘗對症下藥,反而被迫在標準資料庫的框架下建立自己的資料庫,導致所訓練出的AI模型實際應用時的表現不如預期。

Think Big

全球人口每九人中就有一人挨餓、全球暖化導致海平面上升……。許多困難、棘手的問題有待科學家們解決,AI是他們在這個時代的利器。應用研究並非只是一個蘿蔔一個坑,實際上,將機器學習模型套用在新事物上的背後,往往需要大量工程與原創性的想法去縮小現實與理論間的落差。如果我們無法意識到這一點並奢望立竿見影,往往只能是徒勞無功。

正如同時是神經科學家和AI研究者的Gary Marcus所說:「人工智慧對社會的最大貢獻……最終應當會是在科學的自動化發現,從而使如醫學等比現在更為精進。但在此之前,我們必需確保整個領域不會『自滿於現狀』(註1)。」為了讓世界能夠受益於機器學習,研究社群可能必須再次問問自己:AI的目標函數(註2)究竟是什麼?如果要在世界上產生積極的影響力,我們或許就必須開始改變對應用研究的看法。


*註1、原文為「陷入局部最小值」。局部最小值(local minimum):函數中局部的最小值。在機器學習的最佳化問題中,往往是希望訓練模型取得「整體函數的最小值」(Global minimum),而非「局部最小值」。

*註2、目標函數(objective function):機器學習中常會定義一個目標函數作為模型目標,並透過訓練來找出一個最小化(或最大化)的最佳解。

 

編譯來源

H. Kerner, “Too many AI researchers think real-world problems are not relevant”MIT Technology Review, 2020.

參考資料

  1. Y. Bengio, “Time to rethink the publication process in machine learning”, Yoshua Bengio, 2020.
  2. G. Marcus, “Deep Learning: A Critical Appraisal“, arXive.org, 2018.

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

(Visited 42 times, 1 visits today)

分享至
views