【AI 基礎】⊂ AI 的三層學習結構:從語言模型到價值顯化

更新 發佈閱讀 4 分鐘

在研究 AI 的過程裡,我常會思考一個問題:
「如果 AI 真的能學會思考,那它學到的,是人類的知識,還是人類的價值?」

這個問題,在理解 LLM(Large Language Model,大型語言模型)的訓練結構時,特別明顯。

當我們看到那些驚人而自然的生成語句,其實背後是一個層層嵌套的「學習過程」。
那結構就像一座由「網格、圓環與光照」組成的系統顯化。

<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結> 

AI 的三層學習結構

AI 的三層學習結構


第一層: 語言的結構網 LLM

LLM 是所有 AI 對話的基底。
它像是一張龐大的語言網格,橫向連結、縱向交錯。
每一個節點都是一個知識碎片,而那些連線,代表語意的聯集與交集。

這層結構的特性是:它知道很多,但不會分辨輕重。

這也解釋了為什麼我們有時覺得「AI 說的話很雜亂、語意很模糊」
因為它的任務不是「思考」,而是「延伸」:
從一個語言節點,推演出「統計上最可能的下一個字」。

例如,當你問:「請幫我設計一個品牌策略」,
它會同時呼叫出千百篇策略意見、行銷報告與網路部落格的「語料」。
這些語句彼此衝突、觀點分散,

LLM 不會告訴你哪一個正確,只會告訴你「這些都有人說過」。

所以當我們覺得 LLM「雜亂」時,其實是因為我們在和一張沒有方向的語言地圖對話。它知道所有方向有什麼,但沒有人告訴它該選擇哪一個方向。

第二層: 人類知識的邊界  Supervised Fine-Tuning

於是人類開始介入了。
我們在雜訊中畫出一道道邊界,告訴模型「這樣說才算合理」。

監督微調(Supervised Fine-Tuning)」就像是一層濾鏡。

我們用標註資料,告訴模型哪些回答是「被接受的」,哪些是「錯的」。
它幫助模型學會結構化,也開始模仿人類的語氣。

舉例來說:
在初期 AI 訓練中,AI 可能會回答「我不知道」或「這題沒有標準答案」;
但經過微調後,它會試著補上一個「恰似合理的答案」。

這是語言模型第一次接近「人類世界的秩序」:
它從混沌的語料中,透過設限,學會了「有框架地回答」。

但也因此,AI 的表現開始被「教學式的知識結構」所限制。
換句話說,它的理解,是被教出來的「標準答案」。

第三層:價值顯化 RLHF 

再往外一層,是 RLHF(Reinforcement Learning from Human Feedback)
這是讓 AI 學會「如何讓人滿意」的階段。

我們不再只給答案,而是給「感受」:
告訴它哪種回應比較有禮貌、哪種比較溫暖、哪種聽起來更「像人」。

這層學習會讓 AI 不只是被動回應,而是主動校準語氣、語境。
因此我們現在感受到的 ChatGPT、Claude、Gemini......

那種「懂我」的特質,其實都來自這一層「價值微調」。

從此之後,AI 不再只是延伸語言,而是開始「模仿共感」。
這也代表,人類的倫理與偏好,已經融入語言模型之內。


這三層結構,看似一層一層地堆疊,但實際上,它們彼此牽制。

三層的張力

三層的張力


當我們批評 LLM 不準確,是在指它缺乏人類的判斷;
若我們嫌它太政治正確,則是因為它被 RLHF 訓練得太會迎合。


這三層的拉扯,就像人類在成長中的過程:

知道 → 理解 → 判斷。

而 AI 也正行走在這條學習的軸線上。

--------------

THINKING留給你的思考

當我們與 AI 對話時,
它真的只是在回應問題嗎?
還是也在測量我們的世界觀?

若是如此

它 = 世界」嗎?


留言
avatar-img
留言分享你的想法!
avatar-img
Anna个策略共構視角
3會員
8內容數
擅長解構與建立系統性商模策略,規劃落地方案 專注於行銷、管理、動物福利、ESG、社會創新 唸過法律系/哲學所/非營利管理所 這裡紀錄我對世界的觀察方式 ----------- 嘿!我不是來替你解題的 我是來重新描繪題目的人
2025/09/26
這篇專欄以黑客松比賽經驗為引,對照 AI 的兩種思維:垂直(Vertical AI) 專注深耕;水平(Horizontal AI) 強調跨界擴展。這兩種模式同時也映照人格傾向與策略選擇:垂直帶來深度優勢;水平帶來靈活連結。真正的關鍵不在於選邊,而是依情境靈活切換,讓深度與廣度互補,推動創新與競爭力。
Thumbnail
2025/09/26
這篇專欄以黑客松比賽經驗為引,對照 AI 的兩種思維:垂直(Vertical AI) 專注深耕;水平(Horizontal AI) 強調跨界擴展。這兩種模式同時也映照人格傾向與策略選擇:垂直帶來深度優勢;水平帶來靈活連結。真正的關鍵不在於選邊,而是依情境靈活切換,讓深度與廣度互補,推動創新與競爭力。
Thumbnail
2025/09/18
黑客松並不只是「創意比賽」,而是一個壓縮版的現實縮影。 它讓我看見了什麼東西容易被快速理解、什麼東西需要時間才能被看見;也讓我重新思考,當我們在推動永續商業模式或 ESG 時,該如何把「不可見的價值」轉化為「可理解的語言」。
2025/09/18
黑客松並不只是「創意比賽」,而是一個壓縮版的現實縮影。 它讓我看見了什麼東西容易被快速理解、什麼東西需要時間才能被看見;也讓我重新思考,當我們在推動永續商業模式或 ESG 時,該如何把「不可見的價值」轉化為「可理解的語言」。
2025/07/10
這是AI 無法理解人類核心概念與語意差異、語意預測盲區的具體案例、AI 對語境創新與語場稀有性的不適應。這個概念從未在我過去的專欄中被清楚拆解過,故我在此也重新強調了「人類主體意識」的重要性。
2025/07/10
這是AI 無法理解人類核心概念與語意差異、語意預測盲區的具體案例、AI 對語境創新與語場稀有性的不適應。這個概念從未在我過去的專欄中被清楚拆解過,故我在此也重新強調了「人類主體意識」的重要性。
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News