第二部:《深度學習》26/100 CNN 模型架構範例 🏛 LeNet、AlexNet 到 ResNet!

更新 發佈閱讀 5 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

26/100 第三週:📌 卷積神經網路 CNN

26.CNN 模型架構範例 🏛 LeNet、AlexNet 到 ResNet!

當我們談到 卷積神經網路(CNN) 的演進時,第 26 單元的主題 ——

🔹 《CNN 模型架構範例:LeNet、AlexNet 到 ResNet》

正是深入理解深度學習發展脈絡與實務應用的黃金切入點!🏛

________________________________________

🧭 一、LeNet-5(1998)—— CNN 的啟蒙架構

📌 作者:Yann LeCun

📌 應用:手寫數字識別(MNIST)

🧱 結構:

Input: 32x32 灰階圖

C1: 卷積層 (6 個 5x5 filters)

S2: 平均池化層

C3: 卷積層 (16 個 filters)

S4: 平均池化層

FC5: 全連接層

Output: 10 類 Softmax

🔍 特色:

使用池化來降維

是第一個真正實用的 CNN,奠定了基礎架構

________________________________________

🧠 二、AlexNet(2012)—— CNN 的現代革命

📌 作者:Alex Krizhevsky 等人

📌 應用:ImageNet 圖像分類挑戰(ILSVRC)

🧱 結構亮點:

Input: 224x224x3 RGB 圖

使用 ReLU 激活函數

引入 Dropout 避免過擬合

使用 GPU 加速訓練(雙 GPU)

包含 5 個卷積層 + 3 個全連接層

🔍 成就:

Top-5 錯誤率從 26% → 15%

揭開深度學習黃金十年的序幕

________________________________________

🏗 三、ResNet(2015)—— 深度網路的革命性突破

📌 作者:Kaiming He 等人(微軟研究院)

📌 應用:ImageNet 冠軍(Top-5 錯誤率 < 3.6%)

🧱 結構創新:

引入 殘差連接(Residual Connection)

解決深層網路容易退化(degradation)的問題

常見版本:ResNet-18、ResNet-34、ResNet-50、ResNet-101...

🔍 Residual Block 示意:

Input → [Conv → BN → ReLU → Conv → BN] + Input → ReLU

✅ 核心思想:讓網路學「殘差」而非整個映射函數

________________________________________

📊 四、架構演進圖(摘要比較)

這三個經典卷積神經網路模型代表了深度學習發展的關鍵里程碑。LeNet-5(1998) 是深度學習的啟蒙之作,以七層架構成功應用於手寫數字辨識(MNIST);AlexNet(2012) 則透過引入 ReLU 激活函數與 Dropout 正則化,並採用雙 GPU 訓練,於 ImageNet 賽事奪冠,掀起深度學習革命;ResNet-50(2015) 則開創性地提出殘差學習機制,使得深度達 50 層以上的神經網路也能穩定訓練,顯著降低 ImageNet 的分類錯誤率,成為現代深度模型的核心基礎之一。

________________________________________

✨ 小結與啟示:

✅ LeNet 是出發點,讓機器會「看圖」

✅ AlexNet 是爆發點,開啟現代深度學習浪潮

✅ ResNet 是轉捩點,讓深度學習能真正「深入」

這些架構不只是模型,也反映了 電腦視覺與硬體發展的里程碑,理解它們有助你日後設計自己的 CNN 模型!


留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
16會員
353內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/09/04
CNN 處理彩色圖像時,輸入為多通道(如 RGB 三通道),每個濾鏡同樣擁有三維結構,對各通道分別卷積後再相加形成輸出。若使用多個濾鏡,則能同時提取不同特徵,每個濾鏡輸出一張特徵圖,形成多通道輸出。這樣的設計能捕捉邊緣、紋理與形狀等多層次資訊,是 CNN 成功應用於影像辨識的關鍵技術。
2025/09/04
CNN 處理彩色圖像時,輸入為多通道(如 RGB 三通道),每個濾鏡同樣擁有三維結構,對各通道分別卷積後再相加形成輸出。若使用多個濾鏡,則能同時提取不同特徵,每個濾鏡輸出一張特徵圖,形成多通道輸出。這樣的設計能捕捉邊緣、紋理與形狀等多層次資訊,是 CNN 成功應用於影像辨識的關鍵技術。
2025/09/04
卷積層的步長與填充決定特徵圖大小與資訊保留。步長 stride=1 可完整保留細節,stride=2 則快速縮小尺寸;填充 same 會補零以保持輸入輸出一致,valid 不補零會讓特徵圖縮小。兩者的搭配能在保留重要特徵的同時控制計算量與模型規模,是設計 CNN 的核心技巧。
2025/09/04
卷積層的步長與填充決定特徵圖大小與資訊保留。步長 stride=1 可完整保留細節,stride=2 則快速縮小尺寸;填充 same 會補零以保持輸入輸出一致,valid 不補零會讓特徵圖縮小。兩者的搭配能在保留重要特徵的同時控制計算量與模型規模,是設計 CNN 的核心技巧。
2025/09/04
池化層能縮小特徵圖,減少計算與參數並防止過擬合。MaxPooling 突顯重要特徵,AveragePooling 抗雜訊,GlobalAveragePooling 減少參數。雖無學習權重,卻能提升模型對平移、旋轉等變化的容忍度,是 CNN 穩健高效的關鍵。
2025/09/04
池化層能縮小特徵圖,減少計算與參數並防止過擬合。MaxPooling 突顯重要特徵,AveragePooling 抗雜訊,GlobalAveragePooling 減少參數。雖無學習權重,卻能提升模型對平移、旋轉等變化的容忍度,是 CNN 穩健高效的關鍵。
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
在科技發展的浪潮中,生成式AI無疑是引領未來的關鍵力量。透過深度學習技術,AI系統能夠從大量資料中發掘規律,並創造出全新的內容,無論是文字、圖像、音頻還是視頻,都可以在AI的加持下重新定義。
Thumbnail
在科技發展的浪潮中,生成式AI無疑是引領未來的關鍵力量。透過深度學習技術,AI系統能夠從大量資料中發掘規律,並創造出全新的內容,無論是文字、圖像、音頻還是視頻,都可以在AI的加持下重新定義。
Thumbnail
1986 年,人工智慧的崛起,神經網路的出現。人工神經網路發展遭遇挑戰,直到 2006 年由Hinton提出限制玻爾茲曼機與深度信念網絡,重新點燃熱情。2018年,Hinton獲得圖靈獎。近年,Hinton持續關注AI帶來的危險,力促人們關注。
Thumbnail
1986 年,人工智慧的崛起,神經網路的出現。人工神經網路發展遭遇挑戰,直到 2006 年由Hinton提出限制玻爾茲曼機與深度信念網絡,重新點燃熱情。2018年,Hinton獲得圖靈獎。近年,Hinton持續關注AI帶來的危險,力促人們關注。
Thumbnail
數位化時代中,人工智能(AI)已成為推動創新和進步的關鍵力量。本文探討AI的現狀、挑戰以及未來可能性,並提出負責任地發展和使用AI的思考。
Thumbnail
數位化時代中,人工智能(AI)已成為推動創新和進步的關鍵力量。本文探討AI的現狀、挑戰以及未來可能性,並提出負責任地發展和使用AI的思考。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News