當大語言模型的發言帶有偏見時,你還相信它嗎?

近年來隨著AI科技的出現,改變了人們的生活,尤其是2023年生成式AI的出現,更是把AI的討論度炒熱到了高點。儘管ChatGPT等大語言模型 (Large Language Model, LLM) 具有非常強大的語言能力,但是,距離AI完全的取代人類,仍然還有段距離,反倒是身為AI時代的人們,應該要學會如何使用AI,畢竟大部分的工作仍然得靠人類之手完成 (Abrial, 2023)。然而,當LLM的發言帶有偏見時,使用者是否能明確洞悉呢?

Read more

驗證碼的演進史:如何證明自己是人類?

瀏覽網頁或登入網站時,常需要使用者輸入驗證碼,以獲得進一步瀏覽的權限。這種機制雖妨礙瀏覽網頁的順暢,但對於防止網站遭受大量垃圾資訊等問題卻十分有效。早期因為字元辨識技術尚不發達,基於文字類型的驗證碼是市場上的主流方法。然而,越來越進步的機械學習與演算法模型陸續被發展出來,文字驗證碼容易被破解,促使文字驗證碼的形式越趨複雜。此外,也出現了其他類型的驗證碼,如圖片、數學題與邏輯測試等。然而越來越複雜的驗證方式,反而容易導致使用者判讀出現錯誤。近年,網頁的驗證方式逐漸朝向簡易且快速的方向發展。

Read more

高效率機器學習模型的力量:預測學習者表現

在當今這個大數據時代,教育類的系統提供了非常大量的學生與科技設備的互動資料。從早期電腦輔助教學 (Computer-assisted Instruction, CAI) 的概念提出,到後來又提出了更具有客製化學習概念的「智慧家教系統 (Intelligent Tutoring System, ITS)」,用以了解學習者的知識水準、追蹤學習者的學習進度等。數據與資料的儲存和應用,也讓教育科技的領域有了更進一步的發展。

Read more

「媽!我不想練琴」──那就跟機器人一起彈鋼琴吧

當紅歌手周杰倫從小被媽媽逼著練琴的故事家喻戶曉,要把音樂技術練得更好,勢必得經過大量的練習才有可能讓自己的琴藝變得更加進步。不過,每個孩子也許適合不同的教育方式,在現今的科技發展之下,科學家們也嘗試導入「社會機器人 (social robot)」來和孩子一起學音樂!

Read more

大家都想讓AI進入教室,但隱私安全措施到位了嗎?

幾乎所有人都樂見AI能融入教育,而在美國,更已經有許多公司準備進軍此一市場,但是政府和學校真的準備好了嗎?在ChatGPT引發熱潮之後,網路上許多討論都聚焦在防弊的問題上,不只在臺灣如此,在許多其他國家亦然。不過,隨著AI的發展,越來越多人意識到學生作弊並非AI唯一的問題所在,隱私保護也是AI進入校園所需面對的一大難題。

Read more

拿到這麼多投資之後,AI公司真能研發出高獲利的產品嗎?

新的AI工具不斷冒出,而舊有的工具也不斷更新改進,AI相關的產業看似一片欣欣向榮,但…真的是這樣嗎?雖然2023年生成式AI的出現改變了我們的生活,而經濟市場上的資金也瘋狂地挹注入AI產業,但投資人們卻發現,現今的AI是否能夠帶來記的獲益是個大問號。畢竟目前的AI產品要能實際獲利,仍面臨著兩大瓶頸。總結來說,2024年是投資人觀察AI是否能夠帶來實際獲利的關鍵一年。

Read more

OpenAI肥皂劇幕後:理念、利益、管制前景

有在關心AI領域相關消息的人應該都知道「OpenAI」執行長與董事會的攻矛盾防之戰,相信不少人吃瓜吃的很開心,但…這可不是單純一家公司權力內鬥的八點檔連續劇,更深入剖析就會發現,它的背後其實是兩股理念勢力間的角逐。它不僅涉及AI發展的步調、金錢利益的往來,更影響著政策制定者對於AI管控的收放。在這雲譎波詭的AI領域戰場上,牽一髮而動全身,誰知道下一場風暴何時會來臨呢?

Read more

大人如何理解孩子說的話:語音模型與牙牙學語

小朋友說話的奶音是否常常讓你聽到融化呢?但是為什麼明明發音不標準,大人們卻還是能夠理解孩子們說的話呢?而且如果孩提時代說話不標準的話,我們到底是怎麼學會標準語言的呢?有沒有可能透過數學模型的方式來告訴我們人類語言學習的祕密呢?

Read more

大眾電影中的AI科學家形象:隱藏的性別差異

每年總是會有科幻大片上映,但…試著回想一下,你能舉出一位電影當中的女性AI科學家角色嗎?是不是很難!男性與女性在AI領域的能力與發展根本不存在先天上的差異,但為何電影當中卻鮮少出現女性AI專家呢?這可能與三個因素有關:反映現實、電影建構的性別刻板印象學科領域,以及導演本身的性別比例失衡。也許你會認為,AI科學家比例失衡沒什麼大不了,但別忘了,AI是透過人類給予的資料進行學習,難道AI創造者們的性別比例失衡,不會影響到AI演算法嗎?

Read more

你敢讓AI熟悉公司機密嗎?AI商用的兩難

如果你是一家公司的老闆,你願意將公司的所有機密洩漏給AI嗎?OpenAI近期宣布將推出企業版的ChatGPT,能夠為客戶提供更專業的人工智慧,使AI能夠正式應用於專業的商務上。但大型語言模型商用仍面對關鍵的兩難:要夠有用,就必須夠專業;但如果要夠專業,就很可能涉及產業的機密,衍生資訊安全與商業祕密的問題。OpenAI聲稱,此版本將提供「企業等級的安全與隱私」,也承諾不會將客戶公司資料用於訓練AI。但…你會選擇冒這個風險嗎?

Read more

網路上的評價與留言到底準不準?

隨著消費者的消費習慣改變,越來越多人在購買東西之前會到網路上搜尋評價與留言,並根據這些數據決定是否消費。然而,這些網路評價與留言真的準嗎?從這項消費習慣漸漸興起,不少平臺與賣家就會聘請寫手專門撰寫虛假評論,或是放出「黑函」打擊競爭者。我們是否有辦法藉由AI來協助我們偵測出一則評價的真偽呢?

Read more

在光鮮亮麗的AI產業中,他們是隱形的工人

AI產業的興起,讓許多人對於該產業工作者充滿幻想,他們應該都是中上流社會的人物。然而,在光鮮亮麗的背後,還有一群拿著低廉薪資的隱形工作者——資料標籤者。他們多是開發中國家的居民,從事著將資料分類標註的機械式工作,這是為了產出訓練AI用的「教材」。這份工作不僅薪資低廉、相當不穩定,工作環境與條件也往往相當嚴苛。而且由於外包商的保密條款,這些工人們甚至不知道自己在做的工作是為了什麼……

Read more

AI天使投資,找出下一個成功的新創公司

隨著行動科技的發展,也使得當今新創企業的發展有了劇烈的變化,新創公司可以更容易地透過行動平臺測試最新的點子。但究竟什麼樣的新創企業能夠成功進入市場,走向成功發展的路呢?這個問題不只是新創公司本身的挑戰,對於投資人而言,也是一個充滿風險的抉擇。

Read more

科技巨頭聯合打造AI規範,是自律還是規避?

2023年7月,AI產業的四大巨頭:OpenAI、Anthropic、微軟、google聯手組成「前沿模型論壇」,研討對於前沿模型的管控方式,確保前沿模型能以安全且負責的方式發展。然而,這也引起不少專家學者的不安與質疑,認為巨頭公司的這些動作,是為了取得政府與民眾的信任,相信他們能夠以自律取代管制。當本次論壇討論出的四大目標公開,又再度引起了討論,因為裡頭的前三項目標都沒有具體、清楚的說明實際執行的細節,讓人不免擔憂他們的終極目標是否真的是「球員兼裁判」。該論壇究竟是AI巨頭履行社會責任還是一場陰謀、政策擬定者又該如何面對,這些都是未來值得好好觀察的重點。

Read more

面對AI詐騙,需要更聰明的防範措施

人工智慧科技的發展為各行各業帶來嶄新的視野,當然,對於某些「特殊產業」也是如此。隨著生成式AI—ChatGPT橫空出世,詐騙手法也更朝迭代,花樣百出。可怕的是,新一代的詐騙手法不再像過往,為了降低成本所以千篇一律,且漏洞百出,而是可以為每個潛在受害者「量身打造」陷阱。此外,現在人越來越依賴網路評論,因此不少商家也出資聘僱「網軍」洗好評。過去這些網軍所洗的評論可以容易地被偵查並清除,但AI技術的發展讓這些評論越來越「人性化」,如何偵查與製造這些虛假評論成為兩方立場的重要博弈。

Read more