第二部:《深度學習》23/100 池化層(Pooling)作用 📉 降維又保特徵!

更新於 發佈於 閱讀時間約 6 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

23/100 第三週:📌 卷積神經網路 CNN

23.池化層(Pooling)作用 📉 降維又保特徵!

________________________________________

✅ 池化是什麼?

池化層(Pooling Layer) 是在 CNN 中用來「縮小特徵圖尺寸」的處理步驟,能在保留重要資訊的同時大幅減少參數與計算量,也提升模型的空間不變性(Spatial Invariance)。

📌 捲積層負責「學習」,而池化層負責「濃縮」。

________________________________________

🎯 為什麼要池化?

池化層(Pooling)在卷積神經網路中扮演關鍵角色,主要用來壓縮特徵圖、提升泛化能力與穩定性。當特徵圖太大時,池化可將其尺寸縮小 2~4 倍,降低模型計算負擔與參數量;同時,透過最大值或平均值的選擇,池化能讓模型對位置、旋轉與光線變化更具彈性,提高對不同圖像變化的容忍度;此外,池化能去除細碎的雜訊與過度精細的特徵,幫助模型專注於較抽象的整體結構,進而減少過擬合風險。這使池化成為 CNN 中不可或缺的結構元件。

________________________________________

🧩 常見池化類型:

常見的池化(Pooling)類型有三種,各自具備不同特性與應用場景。Max Pooling 是最常用的方法,每個區塊只保留最大值,能突顯最強的特徵回應,效果明顯且計算簡單;Average Pooling 則取每個區塊的平均值,雖保留特徵較保守,但具備良好的抗雜訊能力,適合需要平滑輸出的場合;Global Average Pooling 是將整張特徵圖的平均作為輸出,常用於分類模型輸出層之前,可大幅減少參數,並自動適應不同尺寸的輸入圖像。根據任務需求選擇適當的池化方式,有助於提升模型的效率與表現。

________________________________________

📐 池化操作示意(Max Pooling 2x2,stride=2)

輸入特徵圖:

1 3 2 4

5 6 7 8

9 1 2 3

4 5 6 7

池化後:

6 8

9 7

🧠 每個 2x2 區塊中選最大值 → 大幅縮小尺寸(從 4x4 → 2x2)

________________________________________

⚙️ TensorFlow / Keras 實作:

python

from tensorflow.keras import layers

model = tf.keras.Sequential([

layers.Conv2D(32, (3, 3), activation='relu', padding='same'),

layers.MaxPooling2D(pool_size=(2, 2), strides=2)

])

這段程式碼建立了一個典型的 CNN 前段結構,首先透過卷積層使用 32 個 3×3 濾鏡搭配 ReLU 激活函數提取局部特徵,並採用 same padding 保留輸出尺寸;接著透過 2×2 的最大池化層將特徵圖長寬縮小一半,有效降低運算量並提升對位置變化的容忍度。此設計常用於影像分類任務中,用於初步提取與濃縮圖像特徵。

________________________________________

📊 池化與卷積的差異比較:

卷積層與池化層是 CNN 中互補的核心結構。**卷積層(Conv2D)負責擷取圖像中的邊緣、紋理等特徵,具有可訓練的權重,可學習局部圖案的細節,因此對位置變化較敏感;而池化層(Pooling)**則不具學習參數,專注於濃縮與壓縮特徵資訊,透過取最大值或平均值保留整體輪廓,有助於提升模型對平移、旋轉等變化的容忍度。兩者搭配使用,能讓模型在保留關鍵特徵的同時降低運算負擔並強化泛化能力。

________________________________________

💡 池化層設計建議:

在設計卷積神經網路時,池化層建議以 MaxPooling 為主,常用設定為 pool_size=(2, 2) 和 strides=2,可有效將特徵圖縮小一半,降低計算成本並強化特徵抽象能力。實務上通常每兩層卷積後加入一次池化,以控制模型規模並防止過擬合;此外,輸出層前可使用 GlobalAveragePooling,進一步壓縮特徵圖並減少參數。池化層雖無學習參數,卻能顯著提升模型的空間容忍度與泛化效果,是建立穩健 CNN 架構的重要元件。

________________________________________

🎯 小結與啟示:

✅ 池化層能有效「縮小」特徵圖,減少模型計算量與過擬合風險

✅ MaxPooling 是最常見方式,保留圖像中最重要特徵

✅ 池化提升 CNN 對位置、旋轉、雜訊的容錯能力與泛化力


留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
8會員
137內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/09/04
卷積層透過濾鏡在圖像上滑動,提取局部特徵並生成特徵圖,能有效學習邊緣、紋理與形狀。其超參數如濾鏡大小、步幅、padding 與濾鏡數量會影響輸出效果。相比 MLP,CNN 透過參數共享與局部感知減少參數量並保留空間資訊,能逐層學習由低階到高階的語意特徵,成為影像辨識的關鍵技術。
2025/09/04
卷積層透過濾鏡在圖像上滑動,提取局部特徵並生成特徵圖,能有效學習邊緣、紋理與形狀。其超參數如濾鏡大小、步幅、padding 與濾鏡數量會影響輸出效果。相比 MLP,CNN 透過參數共享與局部感知減少參數量並保留空間資訊,能逐層學習由低階到高階的語意特徵,成為影像辨識的關鍵技術。
2025/09/04
卷積神經網路(CNN)模仿人類視覺皮質,利用區域感受野、參數共享與層層堆疊學習特徵,能有效降低參數並保留空間資訊,克服 MLP 處理影像的不足。代表性模型 LeNet-5 開啟影像辨識革命,後續 CNN 廣泛應用於圖像分類、醫療診斷、自動駕駛與手機應用,成為深度學習處理視覺與語音資料的核心技術。
2025/09/04
卷積神經網路(CNN)模仿人類視覺皮質,利用區域感受野、參數共享與層層堆疊學習特徵,能有效降低參數並保留空間資訊,克服 MLP 處理影像的不足。代表性模型 LeNet-5 開啟影像辨識革命,後續 CNN 廣泛應用於圖像分類、醫療診斷、自動駕駛與手機應用,成為深度學習處理視覺與語音資料的核心技術。
2025/09/04
第二週聚焦多層感知器(MLP)的訓練技巧:分類任務用交叉熵、迴歸用均方誤差;採用 Mini-Batch 提升效率與穩定性;權重初始化選 Xavier 或 He,避免梯度問題;透過早停與模型保存防止過擬合並保留最佳版本;加入 Dropout 增強泛化能力。
2025/09/04
第二週聚焦多層感知器(MLP)的訓練技巧:分類任務用交叉熵、迴歸用均方誤差;採用 Mini-Batch 提升效率與穩定性;權重初始化選 Xavier 或 He,避免梯度問題;透過早停與模型保存防止過擬合並保留最佳版本;加入 Dropout 增強泛化能力。
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
卷積神經網路(CNN)是一種專門用於影像相關應用的神經網路。本文介紹了CNN在影像辨識中的應用,包括圖片的組成、Receptive Field、Parameter Sharing、以及Pooling等技術。通過本文,讀者將瞭解CNN在影像辨識領域的優勢和運作原理。
Thumbnail
卷積神經網路(CNN)是一種專門用於影像相關應用的神經網路。本文介紹了CNN在影像辨識中的應用,包括圖片的組成、Receptive Field、Parameter Sharing、以及Pooling等技術。通過本文,讀者將瞭解CNN在影像辨識領域的優勢和運作原理。
Thumbnail
streamlit與github連動程式庫,呈現即時預測手寫英文字母 整理了一下,先前學的機器學習利用Colab來訓練出能辨識手寫A~Z英文字母的模型,使用的模型是CNN(Convolutional Neural Network,CNN)模型 訓練好的模型,當然是要拿來應用,成果呈現
Thumbnail
streamlit與github連動程式庫,呈現即時預測手寫英文字母 整理了一下,先前學的機器學習利用Colab來訓練出能辨識手寫A~Z英文字母的模型,使用的模型是CNN(Convolutional Neural Network,CNN)模型 訓練好的模型,當然是要拿來應用,成果呈現
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News