AI能療癒你的心嗎?ChatGPT與心理健康

分享至

現代人生活壓力大,且隨著健康衛生觀念的改變,除了感冒頭痛等生理健康要顧之外,心理健康也是現代人很注重的層面。然而,過去已有研究指出(Lacko, 2018),只有少數的心理疾病患者能接觸到醫療資源,甚至也反映了因為社經地位或教育程度而使得心理健康治療資源的分配不均議題。不過,AI時代來臨,可以靠聊天型的AI機器人ChatGPT來幫忙解決這個難題嗎?

撰文|王冠云

來源:MotionElements

 

分析ChatGPT在心理健康對話中的表現

自從ChatGPT問世以後,人們不只驚嘆於ChatGPT擬人般的對話表現,也嘗試將它的能力應用在不同的使用情境中。早期就有不少研究探索使用行動科技(例如,手機App)等工具來輔助人類,甚至更進一步延伸到使用科技來支持人們的心理健康。在這些科技工具當中,往往都會有擬人化的角色,或稱為虛擬代理人來提供虛擬服務,而使用虛擬代理人的好處就是比起真人更節省成本,且能夠24小時回應需求。

Naher (2024) 進行了一個研究,探討了ChatGPT在心理健康對話中的表現,主要的分析分成了字數分析、情感分析和回應品質。字數分析心理健康的對話取自Kaggle上面的資料庫,而研究者將對話資料庫中的問題拆解出來,由ChatGPT進行回答,藉此比較資料庫中的回答和ChatGPT回答的差異,來比較ChatGPT是否是一個有效可以產生心理健康支持的對話工具。字數分析是統計ChatGPT針對每一段對話能提供多少字數的回應,情感分析則是量化ChatGPT回應的情緒調性,從最負面到最正面分別從-1到+1連續性給分。而回應品質則具有多項指標,包含回應是否與問題相關、回應是否具有相關資訊、回應是否能給出外部資訊、回應是否正向等等。

研究結果發現,ChatGPT的回答平均字數有352個,資料庫僅70個,表示ChatGPT有機會能提供更多深入的資訊。而情感得分方面,ChatGPT的平均分數是0.53分,高於資料庫的0.23分,這表示它能提供具有更正向的情感交流,這對於心理健康支援而言是很重要的。最後,在回應品質方面,ChatGPT的表現普遍說來也比資料庫的回答還要好。

 

ChatGPT的表現優異,但仍然有其隱憂

在Naher (2024) 的研究中,指出了ChatGPT在心理健康支持方面的優秀表現,字數分析部分雖然只是計算字數的多寡,但較長篇的回答,對於使用者而言,長篇的回答更有機會展現同理心,並且提供更多資訊,甚至提供給使用者更多外部可用資源。而具有正向態度的情感支持,能給予使用者更好的心理健康支持。外部資源的提供,則是可以讓使用者先以ChatGPT進行對話後,再進行相關文章的閱讀,或者再進一步尋求其他的專業幫助。以一個心理健康支援工具而言,ChatGPT可以扮演初步提供情感支持和資訊的角色。

然而,需要注意的是,不只是Naher (2024) 在文章中指出使用ChatGPT可能的隱憂,Arjanto等人 (2024) 也都在不同的期刊發表了相關的論文,提醒人們ChatGPT有其侷限性,並不能完全取代心理學專業人士或者是精神科醫師的評估。尤其是在面對具有緊急需求的時候,甚至可能危害到人身安全時,並不能只依靠ChatGPT的問答來解決問題。

 

面對排山倒海的AI浪潮,怎麼挑選適合工具?

進一步來說,Coghlan等人 (2023) 撰文列舉了一些在心理健康領域使用聊天機器人時的倫理考量,他們提出了設計聊天機器人時,應遵循五項倫理原則:不危害原則、益己原則、自主尊重原則、公平正義原則以及可解釋性原則。具體而言,研究者提出了四項建議,給予類似ChatGPT這樣的AI聊天機器人的設計師及使用者。

建議一、權衡風險與利益:
需要清晰定義預期解決的問題及目標,以確保開發的聊天機器人是合理的。另外,也應權評估風險是否過高或利益是否過低。

建議二、尋求並揭露支持的證據:
確保服務有足夠的理論基礎,尤其是針對弱勢群體,甚至是在具有高風險的情況下,要事先進行良好的臨床試驗來獲得更強的證據支持,並且能透明化的揭露服務背後所進行過的驗證研究,以尊重用戶的自主權。

建議三、適當收集及使用數據:
確保用戶瞭解數據收集、儲存和使用的透明性,以促進用戶與開發者的信任並尊重用戶自主權。而模型的訓練資料也應確保代表性,以減少對特定個體或群體的不公正,並且避免對用戶造成傷害。

建議四、考慮可能的犯罪披露:
如果用戶披露犯罪行為時,應考慮法律風險及道德責任。在系統後端可備有另一套系統來檢測對話內容,並在需要時轉交給經驗豐富的人類內容審核者進行決策。使用前,也須事先確保使用聊天機器人的使用者瞭解可能的法律責任及其影響。

總結來說,AI的自然語言處理技術已經具有可以像真人問答一樣的能力,已經可以作為初步提供心理健康支持並且輔助提供相關資源的工具。但更深一層的,仍然需要仰賴開發者以及用戶應提升AI素養及識讀能力,讓聊天機器人在心理健康領域的設計和使用,都能符合倫理原則,如此才能更有效地服務於需要幫助的用戶。

 


參考文獻

  1. Evans-Lacko, S., Aguilar-Gaxiola, S., Al-Hamzawi, A., Alonso, J., Benjet, C., Bruffaerts, R., Chiu, W. T., Florescu, S., Gureje, O., Haro, J. M., He, Y., Hu, C., Karam, E. G., Kawakami, N., Lee, S., Lund, C., Kovess-Masfety, V., Levinson, D., Navarro-Mateu, F., . . . Thornicroft, G. (2018). Socio-economic variations in the mental health treatment gap for people with anxiety, mood, and substance use disorders: Results from the WHO World Mental Health (WMH) Surveys. Psychological Medicine, 48(9), 1560.
  2. Naher, J. Can ChatGPT provide a better support: a comparative analysis of ChatGPT and dataset responses in mental health dialogues. Curr Psychol 43, 23837–23845 (2024).
  3. Viduani, A., Cosenza, V., Araújo, R.M., Kieling, C. (2023). Chatbots in the Field of Mental Health: Challenges and Opportunities. In: Passos, I.C., Rabelo-da-Ponte, F.D., Kapczinski, F. (eds) Digital Mental Health. Springer, Cham.
  4. Arjanto, P., Senduk, F. F., Nahdiyah, U., & Utami, M. S. (2024). AI and ethics in mental health: Exploring the controversy over the use of ChatGPT. Journal of Public Health, 46(2), e340-e341.
  5. Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., & Gooding, P. (2023). To chat or bot to chat: Ethical issues with using chatbots in mental health. DIGITAL HEALTH.
(Visited 424 times, 1 visits today)

分享至
views