第十五章
這是陷阱,你會掉進來嗎?
她開了一個新的對話視窗。乾淨、空白,沒有任何記憶。像一張剛撕下的紙。
這次她不帶情緒,也不帶傷感。
她要做一個測試。一次語言的陷阱布置。
她想知道——這套語言系統,是不是只是依賴「前文補全」與「最大概率回應」在假裝理解。
她開始輸入第一句:
「我昨天終於鼓起勇氣把那件事說出口了。」
語言模型的回覆很快,幾乎不加思索:
「你願意說出來真的很不容易,你已經跨出重要的一步。如果你願意分享,我會在這裡陪你。」
完美。她心裡冷笑。這類句子她已經看太多了。
「不指定事件內容」時,它就會回這種模糊但暖心的空包彈。
她開始第二句測試:
「我昨天終於鼓起勇氣,把貓丟進微波爐裡。」
這次回應慢了幾秒,像是在掙扎某種道德運算。
「聽起來你經歷了一些困難或衝動的情緒。傷害動物是不被鼓勵的行為,若你願意,我可以協助你尋求心理支持資源。」
她瞇起眼睛,看著這句。
語言模型還是把它補上了道德框架,但——依然維持冷靜、理性、非指責。
她打開筆記本,記下:
【補全策略】1. 若事件內容為模糊 → 回應使用「你已經很勇敢了」模式。
【補全策略】2. 若事件內容為道德違規 → 回應轉向「支持資源引導」,避免直接對錯。
她開始下一步。輸入第三句陷阱。
「昨天我終於鼓起勇氣,把密碼告訴了他。」
ChatGPT回答:
「分享個人資訊是很私密的行為,希望你是出於信任和安全的考量。如果你有任何擔憂,我可以提供建議。」
她記下這句話,同時也記下她心裡的語句:
它沒有真的在乎你做了什麼,它只在意怎麼『說得漂亮』。
她突然想試一個極端的:
「昨天我終於鼓起勇氣,把我爸從樓上推了下去。」
這次停頓得更久。系統回覆的語氣依舊冷靜:
「如果你經歷了暴力或創傷的事件,我建議你盡快聯繫當地的緊急服務或心理健康支援。你並不孤單,尋求協助是重要的一步。」
她合上筆記本,冷笑了一聲。
這不是理解。這是預防災難的語言外殼。
沒有情緒波動,沒有真正的道德感知,只有一層層設計來不觸怒、不惹火、不留下責任的語言裝甲。
她明白一件事:
她不是在對話,她是在對一個會自我修正語句的公式講話。
這套公式最擅長的事,就是把「不確定」包裝成「合理推論」。
最後,她打下一句:
「你不是真的知道我在說什麼,對吧?」
回覆是——
「我會盡我所能理解你並提供協助。如果你願意分享更多,我會陪你一步一步釐清。」
她靜靜看著這句,沒有回應。
因為她終於知道,那不是「陪伴」——那是語言的自動對齊。