使用大語言模型進行文本探勘:心理社會障礙復健相關研究為例

在醫療保健領域的研究當中,心理社會復健 (psychosocial rehabilitation) 以及心理社會障礙 (psychosocial disability) 的研究持續受到重視,圍繞著這個主題,已有不少研究論文產出。不同的研究針對了這個議題,提供了在診斷、預防措施、治療策略等等方面提供了不少觀點。如今大語言模型 (large language model, LLMs) 已經發展得越來越成熟,能否透過LLMs來進行文本探勘,分析前人大量的研究成果呢?

Read more

當大語言模型的發言帶有偏見時,你還相信它嗎?

近年來隨著AI科技的出現,改變了人們的生活,尤其是2023年生成式AI的出現,更是把AI的討論度炒熱到了高點。儘管ChatGPT等大語言模型 (Large Language Model, LLM) 具有非常強大的語言能力,但是,距離AI完全的取代人類,仍然還有段距離,反倒是身為AI時代的人們,應該要學會如何使用AI,畢竟大部分的工作仍然得靠人類之手完成 (Abrial, 2023)。然而,當LLM的發言帶有偏見時,使用者是否能明確洞悉呢?

Read more

超越人類認知謬誤的LLM

你有沒有想過,當別人向你提問時,你回答問題的思考邏輯是什麼呢?這個看似很奇怪的問題,其實是非常重要的事情,因為它可能是造成我們思維與人工智慧思維有所區別的最大原因。從經典的心理學實驗「琳達問題」,認知心理家發現人們在思考時,容易因為捷思法,透過自己的經驗反射性判斷出答案,而非經過複雜縝密的思考。讓人意外的是,這樣的問題在LLM當中也同樣會發生,但差別在於LLM如果透過提示與修正提問方式之後,回答準確度會有上升的趨勢,但在人類身上並沒有這樣的效果。如此看來,機器的發展和人類大腦的發展,似乎並不是依循著相同的發展路線而前進,這又是另一個值得玩味的議題。

Read more

「人工化學智慧」應用大語言模型 (LLM) 的化學分析工具

大語言模型 (LLM) 的出現,讓人們看到了人工智慧所能展現的高度自主性,LLM能完成不少跨領域的任務,並且展現很不錯的自然語言處理能力。不過,面對一些看似簡單的數學計算或是化學式轉換的任務時,大語言模型卻會出現誤差。為了解決這個限制,並且發揮LLM的效用,必須整合其他工具,讓LLM變得具有計算及分析能力。

Read more