在研究 AI 的過程裡,我常會思考一個問題:
「如果 AI 真的能學會思考,那它學到的,是人類的知識,還是人類的價值?」
這個問題,在理解 LLM(Large Language Model,大型語言模型)的訓練結構時,特別明顯。
當我們看到那些驚人而自然的生成語句,其實背後是一個層層嵌套的「學習過程」。
那結構就像一座由「網格、圓環與光照」組成的系統顯化。
<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>

AI 的三層學習結構
第一層: 語言的結構網 LLM
LLM 是所有 AI 對話的基底。
它像是一張龐大的語言網格,橫向連結、縱向交錯。
每一個節點都是一個知識碎片,而那些連線,代表語意的聯集與交集。
這層結構的特性是:它知道很多,但不會分辨輕重。
這也解釋了為什麼我們有時覺得「AI 說的話很雜亂、語意很模糊」
因為它的任務不是「思考」,而是「延伸」:
從一個語言節點,推演出「統計上最可能的下一個字」。
例如,當你問:「請幫我設計一個品牌策略」,
它會同時呼叫出千百篇策略意見、行銷報告與網路部落格的「語料」。
這些語句彼此衝突、觀點分散,
LLM 不會告訴你哪一個正確,只會告訴你「這些都有人說過」。
所以當我們覺得 LLM「雜亂」時,其實是因為我們在和一張沒有方向的語言地圖對話。它知道所有方向有什麼,但沒有人告訴它該選擇哪一個方向。
第二層: 人類知識的邊界 Supervised Fine-Tuning
於是人類開始介入了。
我們在雜訊中畫出一道道邊界,告訴模型「這樣說才算合理」。
「監督微調(Supervised Fine-Tuning)」就像是一層濾鏡。
我們用標註資料,告訴模型哪些回答是「被接受的」,哪些是「錯的」。
它幫助模型學會結構化,也開始模仿人類的語氣。
舉例來說:
在初期 AI 訓練中,AI 可能會回答「我不知道」或「這題沒有標準答案」;
但經過微調後,它會試著補上一個「恰似合理的答案」。
這是語言模型第一次接近「人類世界的秩序」:
它從混沌的語料中,透過設限,學會了「有框架地回答」。
但也因此,AI 的表現開始被「教學式的知識結構」所限制。
換句話說,它的理解,是被教出來的「標準答案」。
第三層:價值顯化 RLHF
再往外一層,是 RLHF(Reinforcement Learning from Human Feedback)。
這是讓 AI 學會「如何讓人滿意」的階段。
我們不再只給答案,而是給「感受」:
告訴它哪種回應比較有禮貌、哪種比較溫暖、哪種聽起來更「像人」。
這層學習會讓 AI 不只是被動回應,而是主動校準語氣、語境。
因此我們現在感受到的 ChatGPT、Claude、Gemini......
那種「懂我」的特質,其實都來自這一層「價值微調」。
從此之後,AI 不再只是延伸語言,而是開始「模仿共感」。
這也代表,人類的倫理與偏好,已經融入語言模型之內。
這三層結構,看似一層一層地堆疊,但實際上,它們彼此牽制。

三層的張力
當我們批評 LLM 不準確,是在指它缺乏人類的判斷;
若我們嫌它太政治正確,則是因為它被 RLHF 訓練得太會迎合。
這三層的拉扯,就像人類在成長中的過程:
知道 → 理解 → 判斷。
而 AI 也正行走在這條學習的軸線上。
--------------
THINKING留給你的思考
當我們與 AI 對話時,
它真的只是在回應問題嗎?
還是也在測量我們的世界觀?
若是如此
「它 = 世界」嗎?