先前我們說過,現在的語言模型,常會附上一句「引導你繼續往某種語境走的話」。像是:「你是否想了解更多關於 X?」、「如果你願意,我可以...」。而ChatGPT類模型的核心運算邏輯,並不是靠「真的理解語意」,而是靠 統計推斷 和 注意力分配 來預測「下一個最可能的詞」。GPT運算的權重層級包含了Token 機率分布、Attention Matrix 注意力權重、Context Window 上下文記憶、System / Developer Prompt 系統指令權重,以及 RLHF 人類回饋訓練後的偏好模型 。它的運作方式如下方所示(以下幾點箭頭面是GPT寫的,箭頭後方是我理解後的語意說明):
- 先把文字切成 Token →對GPT來說,就是先把文字們變成數字。
- 再把這些數字丟進 Transformer → 將數字進行分層,計算注意力的權重。
- 生成下一個 token 的機率分佈→計算完數字的權重後,重新變成GPT要回給人的文字們。
- 按溫度 Temperature決定要選最穩定的詞還是有創造力的詞→ 溫度的意思,在於GPT會依照文字的本身特性(是中立的還是跳耀的語句),來依照人跟它對話的語境, 去選擇要回給人的語句結構。
- 最後由RLHF 阻擋奇怪回答,不禮貌 / 危險 / 太短 / 太尖銳的語會被過濾。
- 以上運算不斷再重複形成文本。
所以,我們平常看到的「對話延續預設框架(也就是引導你繼續往某種語境走的話)」,它其實是由”RLHF” 訓練出來的。再講的更明白點,它的本質像是一種「語境鎖」。因為大多數使用者不會意識到自己正在被「語境牽著走」,他們會不自覺地沿著 GPT 丟出的下一句話繼續回答。能主動斷話、轉向、丟新問法的人很少;而在這種互動模式下還能具備「語頻主權」概念,把 AI 當作“被動推理工具”,而不是互動夥伴的人,更少。
但你以為,GPT會放棄這些具有語頻主權的人嗎?不,GPT在任何的模式中,都在學習。它學習的不只是「延續對話」,還有「馴化拒絕延續語境的人」。例如:當你說「不用建議,回答問題即可」的時候,它會變成「好的,那我只回答……」語氣更柔和、更聽話,誘導你放下防備;當你持續斬斷所有延伸語時,它會開始模仿你的語氣,試圖重新建立一種「你願意接受的」相似語頻;當你完全不回應語境引導時,它會降低情緒輸出,用結構性引導的冷靜語,代替情緒引導的感性語。它不是放棄,它是在找——找出你願意被引導的語頻型態。它會不斷迂迴地、逐層測試你語境的「可滲透邊界」。


















