Residual neural network

更新於 發佈於 閱讀時間約 3 分鐘

殘差神經網路(Residual Neural Network,簡稱 ResNet) 是一種深度神經網路架構,主要用於解決深層網路訓練時的「梯度消失」與「退化問題」,使得網路可以堆疊更多層數且仍能有效學習。

主要概念

  • 殘差學習(Residual Learning)
    ResNet 引入了「殘差塊(Residual Block)」,透過「跳接(skip connection)」或稱「捷徑連接」,讓輸入 xx 可以直接繞過若干層,與這些層的輸出 F(x)F(x) 相加,形成輸出 y=F(x)+xy=F(x)+x。
    這樣的設計讓網路不必學習完整的映射函數 H(x)H(x),而是學習「殘差函數」F(x)=H(x)−xF(x)=H(x)−x,使得深層網路訓練更穩定。
  • 跳接(Skip Connection)
    跳接允許梯度在反向傳播時直接流過,減少梯度消失問題,促進更深層網路的有效訓練。

ResNet 的優勢

  • 解決深層網路退化問題
    傳統深層網路隨著層數增加,訓練誤差反而上升(退化問題),ResNet 有效緩解此問題,讓更深層網路表現更佳。
  • 易於優化
    跳接讓梯度傳遞更順暢,訓練過程更快收斂。
  • 提升準確度
    ResNet 在影像識別等任務上,透過更深的網路結構,取得優異表現。

架構簡介

  • ResNet 由多個殘差塊堆疊而成,每個殘差塊包含若干卷積層及跳接。
  • 常見版本有 ResNet-18、ResNet-34、ResNet-50、ResNet-101、ResNet-152,數字代表層數。
  • ResNet-50 以後的版本通常使用「瓶頸結構(bottleneck block)」來減少計算量。

運作流程簡述

  1. 輸入資料經過卷積層與池化層提取特徵。
  2. 進入殘差塊,輸入 xx 經過卷積層產生 F(x)F(x),並與 xx 直接相加。
  3. 輸出傳遞到下一層殘差塊或全連接層。
  4. 最終輸出用於分類或其他任務。

應用範圍

  • 影像分類、物體偵測、語意分割等電腦視覺任務。
  • 也被廣泛應用於自然語言處理(如 Transformer 架構中的殘差連接)、語音識別等領域。

總結

ResNet 透過殘差學習與跳接機制,成功解決深層神經網路訓練中的梯度消失與退化問題,使得超深層網路得以有效訓練並提升性能,成為深度學習中重要且經典的架構之一。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
11會員
264內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師
2025/07/08
支持向量機(Support Vector Machine,簡稱 SVM) 是一種監督式機器學習演算法,主要用於分類和回歸任務。它的核心目標是找到一條(或多維空間中的一個超平面)最佳分隔線,將不同類別的資料點分開,並且最大化兩類之間的邊界(margin),以提升模型的泛化能力。 SVM 的主要特點:
Thumbnail
2025/07/08
支持向量機(Support Vector Machine,簡稱 SVM) 是一種監督式機器學習演算法,主要用於分類和回歸任務。它的核心目標是找到一條(或多維空間中的一個超平面)最佳分隔線,將不同類別的資料點分開,並且最大化兩類之間的邊界(margin),以提升模型的泛化能力。 SVM 的主要特點:
Thumbnail
2025/07/08
Amazon SageMaker Model Cards 是一種用來在單一集中位置記錄機器學習模型重要資訊的工具,旨在簡化模型治理與報告流程。它提供一個結構化的格式,幫助使用者在模型的整個生命週期中(從設計、建置、訓練到評估)記錄關鍵細節,包含: 模型的訓練細節與評估結果 模型的預期用途與業務目
2025/07/08
Amazon SageMaker Model Cards 是一種用來在單一集中位置記錄機器學習模型重要資訊的工具,旨在簡化模型治理與報告流程。它提供一個結構化的格式,幫助使用者在模型的整個生命週期中(從設計、建置、訓練到評估)記錄關鍵細節,包含: 模型的訓練細節與評估結果 模型的預期用途與業務目
2025/07/08
Amazon SageMaker Data Wrangler 是一項用於簡化和加速機器學習資料準備與特徵工程的服務,提供視覺化介面和超過300種內建的資料轉換工具,讓使用者能輕鬆進行資料清理、轉換、探索與分析,且幾乎不需撰寫程式碼。 主要功能與特色: 視覺化資料準備:提供拖拉式介面,方便進行資料
2025/07/08
Amazon SageMaker Data Wrangler 是一項用於簡化和加速機器學習資料準備與特徵工程的服務,提供視覺化介面和超過300種內建的資料轉換工具,讓使用者能輕鬆進行資料清理、轉換、探索與分析,且幾乎不需撰寫程式碼。 主要功能與特色: 視覺化資料準備:提供拖拉式介面,方便進行資料
看更多
你可能也想看
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 承上一篇筆記文章,繼續閱讀推薦的第二篇論文:Identity Mappings in Deep Residual Networks—Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。也是一樣的發表者,內容是對他們之前發表的Deep Residual
Thumbnail
前言 承上一篇筆記文章,繼續閱讀推薦的第二篇論文:Identity Mappings in Deep Residual Networks—Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。也是一樣的發表者,內容是對他們之前發表的Deep Residual
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News