不實資訊如何趁我們線上購物時被散播開來?

自新冠肺炎爆發開始,各種關於到底要怎麼戴口罩、判斷症狀的依據或是接種疫苗到底有沒有幫助的資訊紛紛在社群網絡上散播開來,不實資訊在社群媒體上散播已不是新鮮事。不實資訊除了透過社群媒體散播開來之外,在現今幾乎成為我們生活中不可或缺的線上購物平台上,有沒有可能是另一個加速散播不實資訊的溫床?

Read more

媒體識讀新能力:你能辨別合成的假影片嗎?

市面上有許多有趣的變臉或換臉APP,像是FaceApp,可以讓我們上傳自己的照片後讓系統把我們的面貌從男性變女性、髮型由短變為長、面容由老化變為年輕,甚至是把自己的臉完全變成另一個人名人的樣子。這些變臉的效果仰賴的是電腦視覺來辨識一個人的臉部細節,接著再仰賴電腦圖學的技術合成與改變原本臉上沒有的細節,像是長出鬍子、皺紋、去除斑點等。當這些技術越來越成熟的時候,除了被應用在一些有趣的美妝APP上供大家娛樂之外,近年來也越來越多人透過「深偽技術」把不同人的臉移花接木來製作假影片,進而操弄大眾的情緒和政治意向,甚至是成為性暴力的工具。在這真假難分的花花世界裡,我們有能力判別合成影片嗎?

Read more

如何辨識文章是由機器或人類所寫?

2019年2月,OpenAI開發出幾可亂真的文本生成器GPT-2,因擔心有心人士濫用,延後公布完整原始碼;然而解鈴還需繫鈴人, MIT-IBM Watson人工智慧實驗室與哈佛自然語言實驗室(Harvard NLP)合作開發出一套工具GLTR(Giant Language model Test Room),能準確分析文章是否由機器生成或由人類所撰寫。以下簡單介紹GLTR的分析方法與運作。

Read more

真假之間:GPT-2的危險成就

2019年2月,知名研究團隊OpenAI發表了簡稱為GPT-2的文本生成模型。研究團隊使用達40 GB的資料量,結果好到讓研究人員為避免惡意濫用,決定暫緩開放原始碼。2019年5月初,兩個簡化後的模型在千呼萬喚中釋出,參數量分別為1.17億與3.45億個,雖與15億參數的原始版本相比,小巫見大巫,卻也顯示出僅是增加資料量與模型複雜度,電腦便可寫出令人難辨真偽的文字內容,輕易淪為假新聞的量產工具。

Read more

走出同溫層

推薦系​​統依據用戶的個人特徵和過去瀏覽行為,投放迎合用戶喜好的個人化廣告與推薦清單,刺激消費、提升業者的銷售額,可說是機器學習技術在商業中最成功且最廣泛的應用。然而,近來也有不少學者開始擔憂,推薦系統的普及所引起的「過濾泡泡」(filter bubble)與「迴聲室」(echo chamber)現象,正對我們的生活產生負面影響。

Read more

機器人如何在社群平台興風作浪?

■2018年,「misinformation」獲選為一線上字典網站的年度代表字,這個單字有個很相似的親戚「disinformation」,乍看之下讓人有些傻傻分不清楚,很容易混淆。
從字義上來看,「disinformation」指的是「被故意散播容易誤導、或是含有特定偏見價值觀的資訊」,簡單來說就是所謂的惡意訊息,是個蠻嚴肅的字。相較起來,「misinformation」的意思就寬鬆許多,指的是「被散播的虛假訊息,無論傳播者是否有特定意圖」,或許可以把這個詞翻譯成所謂的「流言」。

Read more

眼見不為憑:假新聞攻防戰

假新聞、假消息氾濫的時代來襲,有心人士杜撰的不再只是充滿陰謀論的文字與情節,或是那些容易被看破的粗糙修圖,現在已能借AI之力偽造出以假亂真的影片了。這關乎的不再只是大眾的媒體識讀能力,而是我們人類是否有能力看穿偽造影片背後的真相呢?

Read more