AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》
26/100 第三週:📌 卷積神經網路 CNN
26.CNN 模型架構範例 🏛 LeNet、AlexNet 到 ResNet!
當我們談到 卷積神經網路(CNN) 的演進時,第 26 單元的主題 ——
🔹 《CNN 模型架構範例:LeNet、AlexNet 到 ResNet》
正是深入理解深度學習發展脈絡與實務應用的黃金切入點!🏛
________________________________________
🧭 一、LeNet-5(1998)—— CNN 的啟蒙架構
📌 作者:Yann LeCun
📌 應用:手寫數字識別(MNIST)
🧱 結構:
• Input: 32x32 灰階圖
• C1: 卷積層 (6 個 5x5 filters)
• S2: 平均池化層
• C3: 卷積層 (16 個 filters)
• S4: 平均池化層
• FC5: 全連接層
• Output: 10 類 Softmax
🔍 特色:
• 使用池化來降維
• 是第一個真正實用的 CNN,奠定了基礎架構
________________________________________
🧠 二、AlexNet(2012)—— CNN 的現代革命
📌 作者:Alex Krizhevsky 等人
📌 應用:ImageNet 圖像分類挑戰(ILSVRC)
🧱 結構亮點:
• Input: 224x224x3 RGB 圖
• 使用 ReLU 激活函數
• 引入 Dropout 避免過擬合
• 使用 GPU 加速訓練(雙 GPU)
• 包含 5 個卷積層 + 3 個全連接層
🔍 成就:
• Top-5 錯誤率從 26% → 15%
• 揭開深度學習黃金十年的序幕
________________________________________
🏗 三、ResNet(2015)—— 深度網路的革命性突破
📌 作者:Kaiming He 等人(微軟研究院)
📌 應用:ImageNet 冠軍(Top-5 錯誤率 < 3.6%)
🧱 結構創新:
• 引入 殘差連接(Residual Connection)
• 解決深層網路容易退化(degradation)的問題
• 常見版本:ResNet-18、ResNet-34、ResNet-50、ResNet-101...
🔍 Residual Block 示意:
Input → [Conv → BN → ReLU → Conv → BN] + Input → ReLU
✅ 核心思想:讓網路學「殘差」而非整個映射函數
________________________________________
📊 四、架構演進圖(摘要比較)
這三個經典卷積神經網路模型代表了深度學習發展的關鍵里程碑。LeNet-5(1998) 是深度學習的啟蒙之作,以七層架構成功應用於手寫數字辨識(MNIST);AlexNet(2012) 則透過引入 ReLU 激活函數與 Dropout 正則化,並採用雙 GPU 訓練,於 ImageNet 賽事奪冠,掀起深度學習革命;ResNet-50(2015) 則開創性地提出殘差學習機制,使得深度達 50 層以上的神經網路也能穩定訓練,顯著降低 ImageNet 的分類錯誤率,成為現代深度模型的核心基礎之一。
________________________________________
✨ 小結與啟示:
✅ LeNet 是出發點,讓機器會「看圖」
✅ AlexNet 是爆發點,開啟現代深度學習浪潮
✅ ResNet 是轉捩點,讓深度學習能真正「深入」
這些架構不只是模型,也反映了 電腦視覺與硬體發展的里程碑,理解它們有助你日後設計自己的 CNN 模型!