AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》
4/100 第一週:深度學習基礎入門
4.前向傳播與反向傳播原理 🔄 資訊流動 + 誤差修正 = 學習核心!
________________________________________
✅ 核心概念:
神經網路能夠學習的關鍵,就在於兩個過程的協同作用:
• 前向傳播(Forward Propagation):資料從輸入層經過每一層神經元,計算出預測值。
• 反向傳播(Backpropagation):將預測與實際差距的「誤差」向後傳遞,並根據梯度調整權重。
📌 一句話總結:
前向傳播讓神經網路產生預測,反向傳播讓它學會修正錯誤。
________________________________________
✅ 前向傳播流程:
輸入層 → 隱藏層(加權 + 激活)→ 輸出層(產生預測結果)
數學表示:
z = W·x + b
(這步驟就是把所有輸入乘上對應的權重,加總後再加上偏差,得到神經元的線性輸出。)
a = activation(z)
(這一步將 z 經過激活函數處理,使神經元能夠學習非線性模式,從而處理複雜的資料結構。)
這兩個公式是神經網路中單個神經元的運作流程,簡單又關鍵。
🔍 一句話簡述:
神經元先加權輸入(z),再用激活函數決定輸出(a)——從線性到非線性的轉換過程。
其中的:
W: 權重矩陣
x : 前一層輸出(或輸入)
b : 偏差項
z : 線性組合輸入
a : 激活後的輸出
________________________________________
✅ 反向傳播流程:
從輸出層開始 → 對誤差進行微分 → 利用鏈式法則向前一層傳遞
步驟簡化:
1️⃣ 計算損失函數的偏導數
2️⃣ 對各層的權重與偏差計算梯度(∂L/∂W, ∂L/∂b)
3️⃣ 使用梯度下降(Gradient Descent)更新參數
W_new = W_old - α * ∂L/∂W
這條公式意思是:「把權重往讓損失變小的方向調整一點點」,方向由梯度決定,步長由 α 控制。
b_new = b_old - α * ∂L/∂b
同理,這是更新偏差(bias)的方式
根據損失對偏差的梯度來修正 b 的值,使預測更準確
其中:
W:權重
L: 損失函數(如 MSE、Cross Entropy)
α: 學習率(Learning Rate)
∂L/∂W: 權重的梯度
🔍 一句話簡述:
「往讓損失變小的方向,調整權重與偏差。」
也就是說,透過梯度計算得知誤差變化的方向,然後反方向調整權重與偏差,讓模型預測越來越準。這就是神經網路學習的核心機制。
________________________________________
✅ 前向 vs 反向 傳播對照表:
在神經網路中,前向傳播負責將輸入資料依序傳遞至輸出層,經過加權總和與激活函數計算出預測結果,屬於單純的推理過程;而反向傳播則從輸出層開始,根據預測與真實答案的誤差,透過損失函數微分與鏈式法則反向計算各層參數的梯度,並利用梯度下降法更新權重與偏差,是真正實現模型學習的關鍵機制。兩者相互配合,構成神經網路訓練的完整流程。
________________________________________
✅ 學習核心:「誤差最小化」🎯
所有神經網路的訓練目標都是——讓預測誤差變小!
這就是深度學習中最核心的理念:
誤差(Loss)越小 → 預測越準 → 模型越強
這個過程就像學生寫作業錯了,老師糾正錯誤,學生修正後學得更好。
________________________________________
✅ 技術補充:常用損失函數
MSE 均方誤差 迴歸問題 L = 1/n Σ(y - ŷ)²
Binary Cross Entropy 二分類問題 L = -[y log ŷ + (1-y) log(1-ŷ)]
Categorical Cross Entropy 多分類問題 L = -Σ(yᵢ log ŷᵢ)
深度學習的核心學習機制是由前向傳播與反向傳播共同構成。前向傳播將輸入資料透過權重與激活函數計算出預測結果;反向傳播則根據預梯度下降法不斷最小化誤差,是神經網路持續學習與優化的關鍵機制,實現從資料中提取知識的能力。
________________________________________
✅ 小結與啟示 💡
✅ 前向傳播幫助模型做出預測
✅ 反向傳播幫助模型修正錯誤、學習進步
✅ 梯度下降是神經網路學習的方向盤與油門
✅ 這就是「深度學習」的真正學習循環!
📌 小結金句:
「前向傳播讓模型預測結果,反向傳播讓模型變得更聰明。」