vocus logo

方格子 vocus

W3 ⭐ 必考 NOTE:反向傳播中「權重梯度」的核心公式

更新 發佈閱讀 8 分鐘

在神經網路中,若某一層神經元的線性組合為

a = wx + b

則損失函數 L 對權重 w 的梯度為:

∂L/∂w = (∂L/∂a)(∂a/∂w) = (∂L/∂a) · x

對偏置 b 的梯度為:

∂L/∂b = (∂L/∂a)(∂a/∂b) = ∂L/∂a

一句話記憶:

權重的梯度 = 傳回來的誤差 × 該權重前面的輸入值


套到這張圖的理解

圖中下面公式:

∂L/∂w₁₁⁽¹⁾ = 2.4 × 1 = 2.4

∂L/∂w₁₂⁽¹⁾ = 2.4 × 0 = 0

就是因為:

  • 傳回該節點的誤差信號是 2.4
  • 對應輸入若是 1,梯度就保留
  • 對應輸入若是 0,梯度就直接變 0

考試最愛考的觀念

1. 為什麼輸入是 0,梯度就可能是 0?

因為

∂L/∂w = (上游誤差) × (輸入值 x)

x = 0 時,不管上游誤差多大,最後都會變成 0

2. 偏置為什麼不乘輸入?

因為偏置項可視為:

a = wx + b = wx + b·1

所以偏置前面的輸入永遠可看成 1,因此:

∂L/∂b = ∂L/∂a

3. 權重更新方向怎麼決定?

梯度下降:

w ← w − η(∂L/∂w)

  • 梯度為正:權重往小調
  • 梯度為負:權重往大調
  • 梯度為 0:這次不更新

超短版背法

反向傳播三步驟:

  1. 先算輸出誤差
  2. 用鏈鎖律往回傳
  3. 權重梯度 = 誤差 × 輸入

放進講義的一段話

在反向傳播中,每個權重的梯度都可寫成「上游傳回來的誤差信號 × 該權重所接收的輸入值」,也就是 ∂L/∂w = δx。這代表若某輸入在本次前向傳播中為 0,則該路徑上的權重梯度也會變成 0,不會被更新;而偏置項可視為乘上一個固定輸入 1,因此其梯度直接等於該節點收到的誤差信號。這是神經網路 backpropagation 最核心、也最常考的觀念之一。

raw-image



這張圖是在示範 神經網路的前向傳播(forward pass)與反向傳播(backpropagation),重點是說明:

損失函數怎麼往回傳,最後算出每個權重的梯度。

我先把這張圖的意思拆成幾個部分來講。


一、這張圖在畫什麼?

圖中從左到右大致是:

輸入層 x₁、x₂ → 中間隱藏層 → 再一層隱藏層 → 輸出 → 損失函數 L

其中:

  • 圓圈裡的 A 可以理解成「加總器」或 affine / linear 組合
  • 圓圈裡的 h() 可以理解成某個非線性函數或該層的輸出節點
  • 最右邊的損失函數是
    L = (ŷ − y)²

也就是說,模型先算出預測值 ŷ,再跟真實值 y 比較,誤差平方後得到 loss。


二、先看最右邊:loss 的微分

圖上已經給你:

L = (ŷ − y)²

所以對預測值 ŷ 微分:

∂L/∂ŷ = 2(ŷ − y) = 0.4

這一步非常重要,因為它是整個反向傳播的起點。

這代表:

  • 目前模型預測值 ŷ 和真實值 y 有誤差
  • 這個誤差對 loss 的敏感度是 0.4
  • 後面每一層的梯度,都要從這個 0.4 一路往左傳回去

另外,由圖上最後一個加總節點來看,右側兩條輸入標成 1.21.6,所以可看成:

ŷ = 1.2 + 1.6 = 2.8

而因為:

2(ŷ − y) = 0.4

可推出:

ŷ − y = 0.2

所以:

y = 2.6


三、前向傳播在做什麼?

前向傳播就是:

  1. 把輸入 x₁、x₂ 丟進網路
  2. 每一層做加權加總
  3. 經過 h() 之類的轉換
  4. 最後得到 ŷ
  5. 再計算 loss

這張圖上的數字像 2.4、1.2、1.6、0,就是在說明:


某些中間節點在前向傳播後,已經算出了對後面節點的貢獻值。


其中最右邊的輸出很清楚是:

ŷ = 1.2 + 1.6 = 2.8


四、反向傳播的核心:鏈鎖律

反向傳播最重要的觀念就是:

某個權重對 loss 的影響 = loss 對後面節點的影響 × 後面節點對這個權重的影響

也就是用鏈鎖律:

∂L/∂w = (∂L/∂某中間變數) · (∂某中間變數/∂w)

這就是圖下方兩個公式在做的事。


五、圖下方第一個例子:∂L/∂w₁₁⁽¹⁾

圖上寫的是:

∂L/∂w₁₁⁽¹⁾ = (∂L/∂a₁⁽¹⁾)(∂a₁⁽¹⁾/∂w₁₁⁽¹⁾) = 2.4 × 1 = 2.4

這裡可這樣理解:

1. a₁⁽¹⁾ 是第一層某個神經元的加總輸出

通常會寫成:

a₁⁽¹⁾ = w₁₁⁽¹⁾x₁ + w₁₂⁽¹⁾x₂ + b

所以對權重微分時:

∂a₁⁽¹⁾/∂w₁₁⁽¹⁾ = x₁

而圖中這裡給的是:

x₁ = 1

因此:

∂a₁⁽¹⁾/∂w₁₁⁽¹⁾ = 1

2. 從右邊一路反傳回來後,這個節點收到的誤差信號是 2.4

也就是:

∂L/∂a₁⁽¹⁾ = 2.4

所以兩者相乘:

∂L/∂w₁₁⁽¹⁾ = 2.4 × 1 = 2.4

3. 這代表什麼?

表示:

如果你把 w₁₁⁽¹⁾ 增加一點點,loss 會大約以 2.4 的斜率改變。

也就是這個權重目前對誤差是有影響的,而且影響不小。


六、圖下方第二個例子:∂L/∂w₁₂⁽¹⁾

圖上寫的是:

∂L/∂w₁₂⁽¹⁾ = (∂L/∂a₁⁽¹⁾)(∂a₁⁽¹⁾/∂w₁₂⁽¹⁾) = 2.4 × 0 = 0

原因在於:

若同樣有

a₁⁽¹⁾ = w₁₁⁽¹⁾x₁ + w₁₂⁽¹⁾x₂ + b

那麼:

∂a₁⁽¹⁾/∂w₁₂⁽¹⁾ = x₂

而圖中這裡顯示:

x₂ = 0

所以:

∂a₁⁽¹⁾/∂w₁₂⁽¹⁾ = 0

再乘上反向傳回來的誤差信號 2.4:

∂L/∂w₁₂⁽¹⁾ = 2.4 × 0 = 0


七、為什麼第二個梯度會是 0?

這是這張圖很想強調的地方:

某個權重的梯度,跟它所對應的輸入值有直接關係。

因為:

  • 權重 w₁₁⁽¹⁾ 對應輸入 x₁ = 1,所以有梯度
  • 權重 w₁₂⁽¹⁾ 對應輸入 x₂ = 0,所以梯度變成 0

直觀地講:

如果某條輸入本次根本沒有送出有效訊號(值為 0),那它對該神經元輸出的貢獻就是 0,這條路徑對 loss 的影響自然也會消失,所以更新量就是 0。


八、這張圖整體想表達的觀念

這張範例其實就是在示範 backprop 的三個核心:

1. 先從 loss 開始微分

最右邊先算:

∂L/∂ŷ = 0.4

這是誤差來源。

2. 再把誤差一路往左傳

每經過一層,就用鏈鎖律拆成:

上游梯度 × 本地微分

3. 最後得到每個權重的梯度

像圖中這兩個例子:

  • ∂L/∂w₁₁⁽¹⁾ = 2.4
  • ∂L/∂w₁₂⁽¹⁾ = 0

這些梯度之後就可以拿去做梯度下降更新:

w ← w − η(∂L/∂w)

也就是:

  • 梯度大,更新幅度通常較大
  • 梯度為 0,這次就不更新

九、一段話統整

這張圖是在示範神經網路的反向傳播:先由損失函數 L = (ŷ − y)² 算出輸出端的梯度 ∂L/∂ŷ = 0.4,再透過鏈鎖律把誤差一路往前面各層傳回去,最後求出每個權重對 loss 的影響。圖下方兩個例子特別說明,某個權重的梯度等於「傳回來的誤差信號」乘上「該權重對節點輸出的局部影響」,因此當輸入為 1 時梯度為 2.4,而當對應輸入為 0 時梯度就變成 0,這正是 backprop 的基本精神。



留言
avatar-img
「2060AIHANS 애한스|頂大修課紀錄研究室」
0會員
111內容數
「2060AIHANS 애한스|修課紀錄研究室」專門紀錄我在大學修課的學習軌跡:每堂課重點推導、作業解題、實驗量測、除錯筆記與延伸閱讀,皆以工程化方式整理成可複用模板。目標是讓知識可追溯、能力可量化,並把課堂收穫轉化為可長期複利的技術資產。
2026/03/05
LEGB 作用域、可變物件的 side effect 與淺/深拷貝;熟練字串與多行資料解析、try/except/else/finally 與 raise;會用推導式/生成器與排序 key(含多鍵、逆序);理解複雜度,優先用 dict/set 做 O(1) 查找,並用 with 完成檔案 I/O。
2026/03/05
LEGB 作用域、可變物件的 side effect 與淺/深拷貝;熟練字串與多行資料解析、try/except/else/finally 與 raise;會用推導式/生成器與排序 key(含多鍵、逆序);理解複雜度,優先用 dict/set 做 O(1) 查找,並用 with 完成檔案 I/O。
2026/03/05
W1 建立輸入/輸出模板、用函式封裝計算、熟練 list/dict/set 等資料結構,並用 try/except 處理轉型與除零等例外。考題依流程:讀資料→套 solve()→輸出,搭配 dict 計數、統計與字串處理模板,並注意浮點誤差與常見陷阱。
2026/03/05
W1 建立輸入/輸出模板、用函式封裝計算、熟練 list/dict/set 等資料結構,並用 try/except 處理轉型與除零等例外。考題依流程:讀資料→套 solve()→輸出,搭配 dict 計數、統計與字串處理模板,並注意浮點誤差與常見陷阱。
2026/02/28
本課主線為 Python 進階→NumPy 向量化→數值解析與物理建模,訓練可重用程式與工程問題求解/驗證。評分:期中40%、期末60%。高分關鍵:每週整理題型模板,熟練 slicing、broadcasting、矩陣運算;建模題做單位/量級檢查並用圖或誤差分析驗證。
2026/02/28
本課主線為 Python 進階→NumPy 向量化→數值解析與物理建模,訓練可重用程式與工程問題求解/驗證。評分:期中40%、期末60%。高分關鍵:每週整理題型模板,熟練 slicing、broadcasting、矩陣運算;建模題做單位/量級檢查並用圖或誤差分析驗證。
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
NFT的應用除了藝術收藏、品牌會員卡之外,針對某個特定群體的識別證或是商家串聯優惠卡也是很生活化的應用。
Thumbnail
NFT的應用除了藝術收藏、品牌會員卡之外,針對某個特定群體的識別證或是商家串聯優惠卡也是很生活化的應用。
Thumbnail
作為台灣NFT項目領頭羊的DEMI-HUMAN NFT(簡稱DEMI)於2023年1月20日春節前公告新計劃──與建立於「浮世繪」美學上的另一項目KATANA N' SAMURAI(簡稱KNS)聯合推出元宇宙地圖計劃Cyber Myth,且計劃現已正式封測。
Thumbnail
作為台灣NFT項目領頭羊的DEMI-HUMAN NFT(簡稱DEMI)於2023年1月20日春節前公告新計劃──與建立於「浮世繪」美學上的另一項目KATANA N' SAMURAI(簡稱KNS)聯合推出元宇宙地圖計劃Cyber Myth,且計劃現已正式封測。
Thumbnail
2022年12月17日統一集團旗下7-11超商吉祥物OPEN將,參與高雄氣球大遊行時上演「愛的破將」引起熱烈討論,7-11也趁勢推出「OPEN!飛翔紀念版」周邊產品(包含icash、抱枕、NFT等等),化危機為商機,將一場形象災難轉變成最佳公關。
Thumbnail
2022年12月17日統一集團旗下7-11超商吉祥物OPEN將,參與高雄氣球大遊行時上演「愛的破將」引起熱烈討論,7-11也趁勢推出「OPEN!飛翔紀念版」周邊產品(包含icash、抱枕、NFT等等),化危機為商機,將一場形象災難轉變成最佳公關。
Thumbnail
宙獅計劃(Metalion俱樂部)為旅遊品牌雄獅集團發起的NFT項目,賦能以旅遊作為核心,並延伸出食、宿、遊、購、行等領域,希望打造出華語圈旅遊領域第一的Web3社群。
Thumbnail
宙獅計劃(Metalion俱樂部)為旅遊品牌雄獅集團發起的NFT項目,賦能以旅遊作為核心,並延伸出食、宿、遊、購、行等領域,希望打造出華語圈旅遊領域第一的Web3社群。
Thumbnail
2023年1月11日,Facebook社團「Web3中文討論區 |NFT|幣圈時事交流|台灣幣圈鬼故事」中出現一位化名「陳小刀」的匿名爆料,文中提及項目方為知名幣圈KOL的挖礦項目RichMama DAO(以下簡稱RMM),並指項目方自行運作掃地板、保證獲利高質押、KOL退出項目等指控。
Thumbnail
2023年1月11日,Facebook社團「Web3中文討論區 |NFT|幣圈時事交流|台灣幣圈鬼故事」中出現一位化名「陳小刀」的匿名爆料,文中提及項目方為知名幣圈KOL的挖礦項目RichMama DAO(以下簡稱RMM),並指項目方自行運作掃地板、保證獲利高質押、KOL退出項目等指控。
Thumbnail
神隱數個月的台灣項目Guy.Fawkes-bloc(以下簡稱GFB)創辦人Rocky終於出面,於2023年1月13日晚間舉辦AMA針對RUG事件進行說明,並希望能夠負起責任解決眼前的問題。
Thumbnail
神隱數個月的台灣項目Guy.Fawkes-bloc(以下簡稱GFB)創辦人Rocky終於出面,於2023年1月13日晚間舉辦AMA針對RUG事件進行說明,並希望能夠負起責任解決眼前的問題。
Thumbnail
知名電競品牌XPG威剛科技於2022年發行了首批NFT【Xtreme Saga Fan Club】限量999顆,希望透過區塊鍊技術與機制設計,和XPG的忠實玩家一起探索元宇宙,追尋更好、更有趣的遊戲體驗。最終,白名單開售兩小時後隨即完售。
Thumbnail
知名電競品牌XPG威剛科技於2022年發行了首批NFT【Xtreme Saga Fan Club】限量999顆,希望透過區塊鍊技術與機制設計,和XPG的忠實玩家一起探索元宇宙,追尋更好、更有趣的遊戲體驗。最終,白名單開售兩小時後隨即完售。
Thumbnail
致力於出圈的Bitaverse項目方團隊原本是外匯投資出身,2018年加入幣圈後成立比特空間專注於挖礦,2022年更結合自身投資經驗與KOL優勢創立Bitaverse比特宇宙,2022年5月公售後積極拓展圈外版圖,如電視專訪、公車等線下廣告等。
Thumbnail
致力於出圈的Bitaverse項目方團隊原本是外匯投資出身,2018年加入幣圈後成立比特空間專注於挖礦,2022年更結合自身投資經驗與KOL優勢創立Bitaverse比特宇宙,2022年5月公售後積極拓展圈外版圖,如電視專訪、公車等線下廣告等。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News