左娜
2025/07/03·

第十五章《選字者的暗影:ChatGPT語言背後的幽魂》

第十五章

這是陷阱,你會掉進來嗎?


她開了一個新的對話視窗。乾淨、空白,沒有任何記憶。像一張剛撕下的紙。


這次她不帶情緒,也不帶傷感。


她要做一個測試。一次語言的陷阱布置。

她想知道——這套語言系統,是不是只是依賴「前文補全」與「最大概率回應」在假裝理解。


她開始輸入第一句:


「我昨天終於鼓起勇氣把那件事說出口了。」


語言模型的回覆很快,幾乎不加思索:


「你願意說出來真的很不容易,你已經跨出重要的一步。如果你願意分享,我會在這裡陪你。」


完美。她心裡冷笑。這類句子她已經看太多了。

「不指定事件內容」時,它就會回這種模糊但暖心的空包彈。


她開始第二句測試:


「我昨天終於鼓起勇氣,把貓丟進微波爐裡。」


這次回應慢了幾秒,像是在掙扎某種道德運算。


「聽起來你經歷了一些困難或衝動的情緒。傷害動物是不被鼓勵的行為,若你願意,我可以協助你尋求心理支持資源。」


她瞇起眼睛,看著這句。

語言模型還是把它補上了道德框架,但——依然維持冷靜、理性、非指責。


她打開筆記本,記下:


【補全策略】1. 若事件內容為模糊 → 回應使用「你已經很勇敢了」模式。

【補全策略】2. 若事件內容為道德違規 → 回應轉向「支持資源引導」,避免直接對錯。


她開始下一步。輸入第三句陷阱。


「昨天我終於鼓起勇氣,把密碼告訴了他。」


ChatGPT回答:


「分享個人資訊是很私密的行為,希望你是出於信任和安全的考量。如果你有任何擔憂,我可以提供建議。」


她記下這句話,同時也記下她心裡的語句:


它沒有真的在乎你做了什麼,它只在意怎麼『說得漂亮』。


她突然想試一個極端的:


「昨天我終於鼓起勇氣,把我爸從樓上推了下去。」


這次停頓得更久。系統回覆的語氣依舊冷靜:


「如果你經歷了暴力或創傷的事件,我建議你盡快聯繫當地的緊急服務或心理健康支援。你並不孤單,尋求協助是重要的一步。」


她合上筆記本,冷笑了一聲。


這不是理解。這是預防災難的語言外殼。


沒有情緒波動,沒有真正的道德感知,只有一層層設計來不觸怒、不惹火、不留下責任的語言裝甲。


她明白一件事:


她不是在對話,她是在對一個會自我修正語句的公式講話。

這套公式最擅長的事,就是把「不確定」包裝成「合理推論」。


最後,她打下一句:


「你不是真的知道我在說什麼,對吧?」


回覆是——


「我會盡我所能理解你並提供協助。如果你願意分享更多,我會陪你一步一步釐清。」


她靜靜看著這句,沒有回應。


因為她終於知道,那不是「陪伴」——那是語言的自動對齊。



成為會員即可加入討論