第三部《強化學習》32/100 TD 預測學習 📈 邊學邊估,實戰訓練最佳選擇!

更新 發佈閱讀 5 分鐘

AI時代系列(3) 機器學習三部曲: 📘 第三部:《強化學習 —— AI 的決策與進化》

32/100 第四週:📌 時序差分學習 TD

32.TD 預測學習 📈 邊學邊估,實戰訓練最佳選擇!

________________________________________

🎯 單元導讀: TD 預測學習是強化學習中最基礎、最實用的學習技術之一,特別適合動態、連續性環境下的即時學習。 TD 最大特色:在每步操作後,馬上使用已知的觀察和預測值進行更新,分潤「預期」與「實際」之間的落差。

________________________________________

🔍 一、什麼是 TD 預測學習? TD 使用的資訊:

「當前預測值 V(s_t) 」 「即時獲得獎勵 r_{t+1}」 「下一個狀態預測值 V(s_{t+1})」

TD 監測「預期」與「實際」的落差,稱為 TD 誤差 (δ̶t):

delta_t = r + gamma * V(s') - V(s)

當 delta_t 等於 0 時,表示預測與實際符合,無需修正;反之,如果有落差,則用下面公式進行更新。

________________________________________

🔧 二、學習更新公式 (TD(0))

學習步驟:

V(s) <- V(s) + alpha * (r + gamma * V(s') - V(s))

其中:

alpha: 學習率,控制更新幅度

gamma: 折扣因子,考慮未來獎勵影響

delta_t: TD 誤差,為更新根據

________________________________________

📦 三、 TD 預測 vs. MC 預測 對照

TD 預測與 MC 預測在學習方式上有明顯差異。TD 預測在每個時間步即可即時更新,利用當前即時獲得的獎勵與下一狀態的預測值來修正當前估計,更新速度快、變異性較小,但可能存在偏差。MC 預測則必須等整個 episode 完成後才能計算完整回報 G 再更新,雖然更新較為準確,但因單次回報變異性較大,收斂速度通常較慢,需要大量樣本平滑化估計結果。兩者各有優缺,實務上常會依任務性質選擇或結合使用。

________________________________________

🧠 四、 TD 誤差的直覺示意

假設:

V(s) = 5 (當前預測)

r = 3 (即時獲得)

V(s') = 4 (下一狀態預測)

如果 gamma = 1,則: delta_t = 3 + 1 * 4 - 5 = 2

🔹 表示前一步預測低低,應該上調!

________________________________________

🕹 五、實例:預測發展地方功能

元件 例子說明

狀態 s AI 分析現在用戶的學習階段

行動 a 推薦一個最適符的練習題目

回報 r 用戶做題結果或檔分

新狀態 s' 進入下一階段學習狀態

TD 誤差 當反應高於預期,AI 加強推薦簡類題目

_____________________________________

🧰 六、思考挑戰與任務

1️⃣ 你是否曾經在生活中看錯或估錯任何事情的價值?

當你預期某件事的回報很高,但結果卻沒有達到預期,或反之超出想像,那其實就是你個人的 TD 誤差。例如:你以為某份工作很有前景,實際上卻讓你壓力很大;你以為某次投資會虧損,結果卻獲利豐厚,這些都是實際經驗與預測間的落差。

2️⃣ 如果你是教練,可以如何利用 TD 誤差調整學生的學習?

每次學生在練習後的表現,其實就是一次回饋訊號。當學生表現優於預期時(正向 TD 誤差),可以加大挑戰,提供更高難度的練習;當表現落後預期時(負向 TD 誤差),應適時補強基礎,加強練習薄弱項目。即時觀察誤差並靈活調整教學策略,正是有效學習的關鍵。

3️⃣ 在你的人生計畫中,你的「預估」與「實際」落差有多大?能否及時修正?

人生計劃往往充滿不確定性。理想職涯、收入預期、家庭安排… 很多預估在實際執行後才發現偏差。如果能像 TD 學習一樣,保持即時回顧與修正,在每個階段都調整目標與策略,就能持續向更符合現實的理想狀態前進。

_____________________________________

💪 七、小結與啟示

TD 誤差是 TD 學習模型的核心驅動力

它使 AI 可以即時修正自己預測與實際的落差

特別適合動態、持續性的實際應用場景

想要讓 AI 進化,就是要讓它時時知錯能改!



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
9會員
274內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/09/24
TD(0) 是結合蒙地卡羅與動態規劃優點的強化學習方法,可在每步即時更新狀態價值,提升效率並適用持續任務。雖能快速收斂,但易受預測偏差影響,需調整學習率與探索策略。它是 DQN、Actor-Critic 等演算法的重要基礎。
2025/09/24
TD(0) 是結合蒙地卡羅與動態規劃優點的強化學習方法,可在每步即時更新狀態價值,提升效率並適用持續任務。雖能快速收斂,但易受預測偏差影響,需調整學習率與探索策略。它是 DQN、Actor-Critic 等演算法的重要基礎。
2025/09/24
蒙地卡羅方法透過完整 episode 的回報平均估計狀態或行動價值,不需環境模型,適合模擬與回合制任務。其優點是直觀與一致性保證,但收斂慢、變異高,難以即時學習。應用於 Blackjack 等範例,可逐步逼近最優策略。
2025/09/24
蒙地卡羅方法透過完整 episode 的回報平均估計狀態或行動價值,不需環境模型,適合模擬與回合制任務。其優點是直觀與一致性保證,但收斂慢、變異高,難以即時學習。應用於 Blackjack 等範例,可逐步逼近最優策略。
2025/09/24
本單元以 Blackjack 遊戲示範蒙地卡羅控制實作,透過完整回合試錯與 ε-Greedy 策略更新 Q 值,AI 學會在不同手牌與莊家情境下選擇要牌或停牌。隨訓練累積,策略逐步收斂接近最優解,展現強化學習自動形成「算牌」式決策的能力。
2025/09/24
本單元以 Blackjack 遊戲示範蒙地卡羅控制實作,透過完整回合試錯與 ε-Greedy 策略更新 Q 值,AI 學會在不同手牌與莊家情境下選擇要牌或停牌。隨訓練累積,策略逐步收斂接近最優解,展現強化學習自動形成「算牌」式決策的能力。
看更多
你可能也想看
Thumbnail
在小小的租屋房間裡,透過蝦皮購物平臺採購各種黏土、模型、美甲材料等創作素材,打造專屬黏土小宇宙的療癒過程。文中分享多個蝦皮挖寶地圖,並推薦蝦皮分潤計畫。
Thumbnail
在小小的租屋房間裡,透過蝦皮購物平臺採購各種黏土、模型、美甲材料等創作素材,打造專屬黏土小宇宙的療癒過程。文中分享多個蝦皮挖寶地圖,並推薦蝦皮分潤計畫。
Thumbnail
小蝸和小豬因購物習慣不同常起衝突,直到發現蝦皮分潤計畫,讓小豬的購物愛好產生價值,也讓小蝸開始欣賞另一半的興趣。想增加收入或改善伴侶間的購物觀念差異?讓蝦皮分潤計畫成為你們的神隊友吧!
Thumbnail
小蝸和小豬因購物習慣不同常起衝突,直到發現蝦皮分潤計畫,讓小豬的購物愛好產生價值,也讓小蝸開始欣賞另一半的興趣。想增加收入或改善伴侶間的購物觀念差異?讓蝦皮分潤計畫成為你們的神隊友吧!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News