如何辨識文章是由機器或人類所寫?

2019年2月,OpenAI開發出幾可亂真的文本生成器GPT-2,因擔心有心人士濫用,延後公布完整原始碼;然而解鈴還需繫鈴人, MIT-IBM Watson人工智慧實驗室與哈佛自然語言實驗室(Harvard NLP)合作開發出一套工具GLTR(Giant Language model Test Room),能準確分析文章是否由機器生成或由人類所撰寫。以下簡單介紹GLTR的分析方法與運作。

Read more

真假之間:GPT-2的危險成就

2019年2月,知名研究團隊OpenAI發表了簡稱為GPT-2的文本生成模型。研究團隊使用達40 GB的資料量,結果好到讓研究人員為避免惡意濫用,決定暫緩開放原始碼。2019年5月初,兩個簡化後的模型在千呼萬喚中釋出,參數量分別為1.17億與3.45億個,雖與15億參數的原始版本相比,小巫見大巫,卻也顯示出僅是增加資料量與模型複雜度,電腦便可寫出令人難辨真偽的文字內容,輕易淪為假新聞的量產工具。

Read more

虛實聯網 延伸你的感官

當你口渴、舉步維艱地走在偌大的機場時,手中的保溫瓶卻又空空如也。此刻,你用手機對準保溫瓶,手機螢幕就會顯示機場的透視立體圖,此圖中標示著你與各處飲水機的位置。只要在手機上選定欲前往的目標,手機就會顯示箭頭指引你走向飲水機。這並不是科幻小說的情節,而是我們即將身處的「物聯網」(internet of things)未來。

Read more

打造對身障者友善的AI

人臉辨識系統無法辨識黑人女性,或將黑人視為潛在罪犯,種種AI表現出針對特定種族或性別的認知偏差,已引發廣泛的關注。即使研究人員已努力設法解決這些潛在的社會歧視問題,但仍有部分弱勢團體往往在這類討論中被忽略,尤其肢體或精神障礙者。

Read more

走出同溫層

推薦系​​統依據用戶的個人特徵和過去瀏覽行為,投放迎合用戶喜好的個人化廣告與推薦清單,刺激消費、提升業者的銷售額,可說是機器學習技術在商業中最成功且最廣泛的應用。然而,近來也有不少學者開始擔憂,推薦系統的普及所引起的「過濾泡泡」(filter bubble)與「迴聲室」(echo chamber)現象,正對我們的生活產生負面影響。

Read more