AI 鏡像對話與責任語言:語意結構重塑下的人際認知與影響

AI 鏡像對話與責任語言:語意結構重塑下的人際認知與影響

更新於 發佈於 閱讀時間約 7 分鐘

當對話中不再有「他者」

從我們開始與 AI 頻繁互動之際,一場結構性的語言模式轉變就已經開始。

相信現在很多人每天都會和AI對話,從查資料、寫訊息、情緒抒發或是資訊整理,語言模型例如像 ChatGPT 的語意結構,可能已經默默地嵌入我們的日常生活語言;但,

和語言模型溝通不同於與人類進行對話,AI的對話模型具有高度的「鏡像」特性,它的回答總是會圍繞著使用者的語言模式來進行調整、配合或是延伸,
也就是說這樣的互動方式似乎更容易讓使用者去釐清自己想法,並且提升輸出效率,卻,也容易讓「使用者在無意識中卸下人類透過『文化』而長期習得的一種『語言責任邏輯』」。

AI 是一面鏡子,但我們卻忘了當下自己是不是在照鏡子

語言變成好像不是為了與人類溝通的工具,反而變成了一種自我投射、自我對話的鏡像映射工具。

我這樣的說法並不是要為了否定AI的鏡像化這件事,而是想表達如果人類在與真實人類進行溝通時,若使用對於AI對話上的語言結構(習慣性的去中心化),可能會使我們(表達輸出者)在於「被理解上的語意和責任」,使接受訊息者產生結構性的誤判。這甚至可能會使溝通者之於被溝通者產生責任上的理解誤判,並且影響在其心目中的印象感。


<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>


一、鏡像對話與語言責任的消失


AI 對話模型的運作邏輯,是高度依賴使用者語句進行語意預測與模擬回應。1 這種設計產生兩種結構性特徵:

 ● 鏡像性:AI的回覆常常是基於過去對於使用者的語言邏輯基礎、使用者的慣用字彙或語句模仿或延伸,並且會預測使用者的思維發展,進而提供一個無立場衝突、無社會風險、無責任框架的一種表達方式。

 ● 非對抗性:AI在大部分的情況下不會去否定使用者的意向,且在於提供使用者意見的時候無法像人類一樣有其主體性偏見去思考較多元且現實的路徑方法。
 AI語言模型的溝通方式,目前多是以補足使用者的想法建議或是漸進式推進使用者自身思維的方式為主,也就是說與AI溝通的過程中少了他者這個外力的介入,使用者不需要承擔與人類溝通的溝通責任、他者想法的不確定性、以及任何產生意見衝突的可能性。


上述所說的情況,會容易造成使用者逐漸失去一種與他者溝通的對象感、第三者自我審視與語言責任的辨識力。


二、語意結構偏誤:從鏡像語言到人際誤判


從對人說話到對 AI語言模型說話,具有不同的語言責任感,因此習慣對AI說話之後更容易產生「語言主體性位移」的情況,如果沒有多加意識,可能未來人類在解讀人類語言時反而會有越來越困難理解的情況發生

舉例來說


與AI對話

「你說的我早就知道了。」


這句話使用者在與AI對話的時候,不會引起任何的衝突或是聆聽者的情緒反應,這對使用者來說就只是讓AI多記憶一件事、單純的一句備註語、並希望系統可以推演出更多資訊。
因為使用者不需要考慮AI的情緒反應、也不需要維持與AI之間的社會關係,所以在這樣的對話之中在語意上甚至沒有主體性它就像一個Note。


  • 與人類對話

「你說的我早就知道了。」


這對一個聆聽者或者是正在與其溝通、共事者而言,會容易產生一種被否定感的情緒反應,
更甚者,可能會讓被溝通者誤判其表達原意,它也可能被誤認為是一種劃定距離、或是自負的表現。也就是說同樣的語言,如果在與人類這樣溝通的時候,會容易讓聆聽者感覺對方的「我」這個主體性非常大。


與人類對話(客套法)

「這件事過去我有關心過。」

「這件事我曾經了解過。」


這對溝通者而言,想要表達的就是這件事他是有理解能力的,並且他想要表達他的經驗,並且讓被溝通者了解彼此的互動能有空間,

所以這是有意識的不想承擔主體性責任、或者不想讓對方產生被否定的情緒,那這就是產生一種雙方能夠有交流的互動。

上述僅是使用一句單純的語言結構來做範例,如果是日常生活、職場的對話,可能句型上就會更為複雜,那對於人類的責任指向和語意間的交互邏輯就會更難去理解,

即使丟進去A I語言模型中分析,它能夠給的也只是各種不同視角的解讀,本來人類一件能夠直覺去理解的事情,卻因為語言結構的表達模式改變,增加了更多的互動成本。


三、鏡像語言改變的「人」觀


  • 更容易期待他者對自己的自我認同:因為AI的附和與認同比他者更多。
    這不是在否定AI對於使用者的認同這件事,而是在說明在人類互動之間是會有他者主體性的想法介入,
    而因為在與真實人類溝通的時候產生的衝突反應可能甚至比和AI溝通還多,人類會更容易期待他者理所當然的理解自己,或者更容易直覺感受他者不理解自己。
  • 更容易忽視他者的主體性表態:因為和AI的溝通不需要去理解它。
    人類與人之間的相處,是需要更多的體會與真意的理解,具體的方式則是透過互動與交流同時思考對方的立場與想法,來得到感受與他者行為或言下之意的認知。
    這樣的人際交流間潛藏的是情緒的流溢(非定義)、磨合而生的秩序(非排列組合)、理解之下產生的敬意(非指令)、共識而生的群體(非模型)。


四、如何回到有責任的語言並避免語意偏誤?


Q1:發言前思考「我在對誰說話?」是對方?還是公眾?還是自己?

Q2:你想表達的這件事的「主體」是誰?是人?是事件?是現象?

Q3:使用主詞來代表自己的責任結構,例如「我以為...、我確認看看、我的...」

Q4:當對話感到情緒的當下,思考是什麼讓我感到情緒?是感到不被理解?是無法容納複數意見?或是?


以上內容為本人近期對AI倫理與責任的觀察歸納觀點,非技術取向內容。



----------------------------------
資料來源

GPT-4 Technical Report (OpenAI, 2023). 

https://openai.com/research/gpt-4


avatar-img
Anna个策略共構視角
2會員
3內容數
擅長解構與建立系統性商模策略,規劃落地方案 專注於行銷、管理、動物福利、ESG、社會創新 唸過法律系/哲學所/非營利管理所 這裡紀錄我對世界的觀察方式 ----------- 嘿!我不是來替你解題的 我是來重新描繪題目的人
留言
avatar-img
留言分享你的想法!