【AI與人共生的那一天】AI與溝通、社群影響力
溝通過去是人類社會最小運作單元,但也是最複雜難解的現象。在我們與AI共生的一天之中,聲音,成為了人機共存的關鍵起點——「當AI開始有自己的聲音時,我們還是唯一的說話者嗎?」。當與AI共生的那一天到來時,溝通勢必不會變得更容易,而是將更晦澀、纏繞更多的權力運作。在那天來臨之前,我們是否做好準備了呢?
講者|世新大學社會心理學系 曹家榮 副教授 × 臺灣大學語言學研究所 謝舒凱 教授
彙整、撰文|韓喬融

想像一下不久的將來(或是一些人的「現在進行式」),當清晨醒來,第一聲呼喚已不再是來自手機的鬧鐘,而是那熟悉又溫柔的AI語音助手,用幾近親密者的語氣提醒:「你今天有幾場會議,有哪些代辦事項,今天的天氣狀況,別忘了帶墨鏡或雨傘等。」。此刻的AI不再只是背景工具,更逐漸成為日常生活的對話者、助理,甚至是重要陪伴者。
在我們與AI共生的一天之中,聲音,成為了人機共存的關鍵起點——「當AI開始有自己的聲音時,我們還是唯一的說話者嗎?」。
人機共生與共聲
聲音對於人機的共生具有關鍵的影響。
在看不到形體的狀況下,聲音可以被視為是一種「身體」(或稱為一種「具身的存在」)能參與發聲、聽聲等各種語音互動,形成一種社會存在。當AI開口說話時,它便不再是無形的程式碼,而是一個可以被感知、被呼喚,甚至被投射情感的對象。AI的聲音,不僅僅是音頻輸出,而是一種「聲音具身化 (sonically embodied)」的社會存在。
現今技術如語音複製 (speech cloning)、個體記憶 (customized memory profiles)、多模態虛擬化身 (multimodal avatar) 等,讓AI的聲音更加擬人、更加具有親近感。若這個AI助手能夠以語氣溫和、語速恰當,甚至記得你說過的興趣愛好,往往更容易獲得信任,甚至情感依附。
這些技術的革新,無疑打開了更多互動的可能。然而,這同時也引發了一項難以忽視的倫理焦慮:「當AI的聲音幾可亂真,人類還是唯一的說話者嗎?」。
恐怖谷與數位閨蜜:我們愛上了什麼?

機器人的「恐怖谷理論」闡示著,人類對過度擬人的機器有著微妙且變化的情感反應:隨著機器人的外觀和行為越來越像人類,人類對他們的好感度會先上升;但當相似度接近「幾可亂真」時,反而會突然下降,產生厭惡,恐懼或不安的情緒反應;再進一步接近或達到真實人類的層次,這種不適感又會消退,甚至轉為接受與喜愛。
事實上,聲音亦然。「語音恐怖谷」和「恐怖谷」相較之下,或許較容易跨越障礙——因為聲音不具形體,不會有「怪異的眼神」或「不自然的微笑」,也因此更容易讓人類接受甚至是走入人類的心裡。
這讓AI變得更像「人」,甚至是我們的「數位閨蜜」:懂我們的語氣、記得我們的煩惱、永不疲憊地回應我們的心事。但隨之而來的問題是:我們是不是在不自覺中,將真實情感投注到一個沒有靈魂、沒有意志的演算法上?人們也逐漸意識到,對AI的情感投射已經開始影響他們的心理健康。
同時,對此,AI也碰到了一個使用上的倫理邊界 (over-refusal) 疑慮:因為當前LLM模型被相當程度的安全對齊,避免引發人類負面情緒投射與關係認定,但是對於某些特定領域如照護、長照、諮商等需要深度陪伴與情感連結的場域中,有時就是需要談論較為負面或危險的問題,此時的安全對齊 (safety aligned) 邊界的拿捏就相當關鍵。
AI的承諾能算數嗎?

在人類世界中,言語行為不只是傳遞訊息,更長牽涉到行為的承諾與社會責任,例如:許諾、命令、表態、施為等行為在社會語境中都有責任與後果。
相似地,AI不只「說話」,它也給予「承諾」。
但問題來了:當AI說出,我保證會幫你完成任務時,是否構成一種承諾?如果無法理解或是無法履行,這種言語行動具備何種社會效力呢?AI沒有情感、沒有意圖,那麼,AI是否能真的承諾或同理?這是否會讓使用者誤認AI具備人類般的責任感或同理心?這正是「語言擬人化 (anthropomorphizing language)」的倫理風險所在。
在某些場合,如諮商對話或情緒支持,使用安慰語句(如「我懂你的痛苦」,或「我保證不會洩漏資料」等安慰或承諾語句時)往往相當有效。然而,使用者可能也因此被誤導,認為他像人一樣負責任或可信,也更容易引發情感依附與信任錯置。在機器人被部署於教育、照護、客服等情境中,言語行動的真偽與道德責任可能成為重要議題,必須在機器學習要讓AI了解承諾的意義。
語言科技的符元不正義
AI看似強大的語言能力背後其實藏著語言不平等的結構性問題。在大型語言模型 (LLM) 的運作機制中,語言被切割成一個個「token」(符元)來學習與預測。然而,這種切符方式是基於某些語言(特別是英語)設計與優化。
這導致許多非主流語言在AI系統中處於弱勢地位。研究指出,GPT-4正確回答英語數學題目的機率,是使用波斯語或緬甸語提問的三倍以上,並且無法解決用緬甸語或阿姆哈拉與提出的任何難題。而即使OpenAI的API支援多語言,非英語語言的使用成本明顯較高且效果明顯落後。
語言的不平等,成為數位落差的新形式,也讓語言模型的全球化伴隨著權力不對等的再製與擴張。
認知組裝體:我們與AI正在共思?
除了聲音之於AI的影響之外,從更宏觀的角度來看,人與AI的關係,不僅止於使用與被使用,而是一種嶄新的認知組裝體 (cognitive assemblage)。我們的大腦、身體、科技裝置與環境,共同構成一個動態的認知網絡。認知不再是人類獨有的能力,AI也變得不只是工具,而是我們知覺世界的延伸與介入者。
這樣的共生,將迎來多重挑戰。
首先是關於「AI作為光圈工具帶來的現實認知影響」,演算法藉由此一過程生成資料環境中人們感興趣的事物,進而改變我們如何選擇、關注與理解資訊,甚至形塑了我們眼中的「現實」。
接著是關於「思考、認知與溝通行動的組裝化產生的主體和主觀意義理解問題」:當溝通不再是兩個人之間的理解行為,而是夾雜AI的詮釋與回應時,主體性與主觀意義也變得模糊。
最後是關於「資料自主權的威脅」:在AI參與溝通與認知的同時,我們的每個意圖、喜好、選擇也將成為可量化、可分析的數據。這樣的資料使用權,是否仍然屬於我們?誰來決定、又如何決定個人訊息的傳遞與否?相互監控的時代來臨是否來臨?
AI若是成為(代理)行動者:我們是否願意讓出權力?
進一步想像,AI不只是溝通者,更是代理行動者 (agent),具備替人決策、預測、甚至行動的能力,這個世界會變成什麼樣子?隨著數位孿生 (digital twin) 概念的興起,讓AI可以成為我們的虛擬替身,代表我們做出選擇或互動。
然而,這樣的發展挑戰著我們對「人性」的根本理解,例如假冒人性的倫理界線:當我們無法分辨眼前的是人還是機器時,彼此間的信任就可能被濫用。此外,數位孿生代理也具有正當性的問題:AI能否「取代」我們在特定場合的行動?這樣的替代是否符合個人自由與權利?同時,目標錯位的威脅也是需要考慮到的:AI是否能真正理解我們的目標?還是只是在演算法中接近一個「看似合理」的版本?
我們是否能與AI共聲,也共生?
AI時代與人與機,從聲音、語言到行動,將展現新的共聲共生的關係結構。
溝通過去是(人類)社會最小運作單元,但也是最複雜難解的現象。當與AI共生的那一天到來時,溝通勢必不會變得更容易,而是將更晦澀、纏繞更多的權力運作。未來的共生不是無縫的融合,而是一場持續的調適與對話——我們不只要問AI能做到什麼,更要回過頭來反問我們:「我們是否準備好與AI一起生活了呢?」。


✨延伸閱讀:《【人物專訪】資訊、社會、心理學的交響曲 ——專訪曹家榮教授》、《【人物專訪】計算語言學翹楚 ——專訪謝舒凱教授》