Residual neural network

更新 發佈閱讀 3 分鐘

殘差神經網路(Residual Neural Network,簡稱 ResNet) 是一種深度神經網路架構,主要用於解決深層網路訓練時的「梯度消失」與「退化問題」,使得網路可以堆疊更多層數且仍能有效學習。

主要概念

  • 殘差學習(Residual Learning)
    ResNet 引入了「殘差塊(Residual Block)」,透過「跳接(skip connection)」或稱「捷徑連接」,讓輸入 xx 可以直接繞過若干層,與這些層的輸出 F(x)F(x) 相加,形成輸出 y=F(x)+xy=F(x)+x。
    這樣的設計讓網路不必學習完整的映射函數 H(x)H(x),而是學習「殘差函數」F(x)=H(x)−xF(x)=H(x)−x,使得深層網路訓練更穩定。
  • 跳接(Skip Connection)
    跳接允許梯度在反向傳播時直接流過,減少梯度消失問題,促進更深層網路的有效訓練。

ResNet 的優勢

  • 解決深層網路退化問題
    傳統深層網路隨著層數增加,訓練誤差反而上升(退化問題),ResNet 有效緩解此問題,讓更深層網路表現更佳。
  • 易於優化
    跳接讓梯度傳遞更順暢,訓練過程更快收斂。
  • 提升準確度
    ResNet 在影像識別等任務上,透過更深的網路結構,取得優異表現。

架構簡介

  • ResNet 由多個殘差塊堆疊而成,每個殘差塊包含若干卷積層及跳接。
  • 常見版本有 ResNet-18、ResNet-34、ResNet-50、ResNet-101、ResNet-152,數字代表層數。
  • ResNet-50 以後的版本通常使用「瓶頸結構(bottleneck block)」來減少計算量。

運作流程簡述

  1. 輸入資料經過卷積層與池化層提取特徵。
  2. 進入殘差塊,輸入 xx 經過卷積層產生 F(x)F(x),並與 xx 直接相加。
  3. 輸出傳遞到下一層殘差塊或全連接層。
  4. 最終輸出用於分類或其他任務。

應用範圍

  • 影像分類、物體偵測、語意分割等電腦視覺任務。
  • 也被廣泛應用於自然語言處理(如 Transformer 架構中的殘差連接)、語音識別等領域。

總結

ResNet 透過殘差學習與跳接機制,成功解決深層神經網路訓練中的梯度消失與退化問題,使得超深層網路得以有效訓練並提升性能,成為深度學習中重要且經典的架構之一。

留言
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
43會員
571內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 初級+中級(數據分析) AWS Certified AI Practitioner (AIF-C01) 其他:富邦美術館志工
2025/07/08
支持向量機(Support Vector Machine,簡稱 SVM) 是一種監督式機器學習演算法,主要用於分類和回歸任務。它的核心目標是找到一條(或多維空間中的一個超平面)最佳分隔線,將不同類別的資料點分開,並且最大化兩類之間的邊界(margin),以提升模型的泛化能力。 SVM 的主要特點:
Thumbnail
2025/07/08
支持向量機(Support Vector Machine,簡稱 SVM) 是一種監督式機器學習演算法,主要用於分類和回歸任務。它的核心目標是找到一條(或多維空間中的一個超平面)最佳分隔線,將不同類別的資料點分開,並且最大化兩類之間的邊界(margin),以提升模型的泛化能力。 SVM 的主要特點:
Thumbnail
2025/07/08
Amazon SageMaker Model Cards 是一種用來在單一集中位置記錄機器學習模型重要資訊的工具,旨在簡化模型治理與報告流程。它提供一個結構化的格式,幫助使用者在模型的整個生命週期中(從設計、建置、訓練到評估)記錄關鍵細節,包含: 模型的訓練細節與評估結果 模型的預期用途與業務目
2025/07/08
Amazon SageMaker Model Cards 是一種用來在單一集中位置記錄機器學習模型重要資訊的工具,旨在簡化模型治理與報告流程。它提供一個結構化的格式,幫助使用者在模型的整個生命週期中(從設計、建置、訓練到評估)記錄關鍵細節,包含: 模型的訓練細節與評估結果 模型的預期用途與業務目
2025/07/08
Amazon SageMaker Data Wrangler 是一項用於簡化和加速機器學習資料準備與特徵工程的服務,提供視覺化介面和超過300種內建的資料轉換工具,讓使用者能輕鬆進行資料清理、轉換、探索與分析,且幾乎不需撰寫程式碼。 主要功能與特色: 視覺化資料準備:提供拖拉式介面,方便進行資料
2025/07/08
Amazon SageMaker Data Wrangler 是一項用於簡化和加速機器學習資料準備與特徵工程的服務,提供視覺化介面和超過300種內建的資料轉換工具,讓使用者能輕鬆進行資料清理、轉換、探索與分析,且幾乎不需撰寫程式碼。 主要功能與特色: 視覺化資料準備:提供拖拉式介面,方便進行資料
看更多
你可能也想看
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 承上一篇筆記文章,繼續閱讀推薦的第二篇論文:Identity Mappings in Deep Residual Networks—Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。也是一樣的發表者,內容是對他們之前發表的Deep Residual
Thumbnail
前言 承上一篇筆記文章,繼續閱讀推薦的第二篇論文:Identity Mappings in Deep Residual Networks—Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。也是一樣的發表者,內容是對他們之前發表的Deep Residual
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News