第二部:《深度學習》23/100 池化層(Pooling)作用 📉 降維又保特徵!

更新於 發佈於 閱讀時間約 6 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

23/100 第三週:📌 卷積神經網路 CNN

23.池化層(Pooling)作用 📉 降維又保特徵!

________________________________________

✅ 池化是什麼?

池化層(Pooling Layer) 是在 CNN 中用來「縮小特徵圖尺寸」的處理步驟,能在保留重要資訊的同時大幅減少參數與計算量,也提升模型的空間不變性(Spatial Invariance)。

📌 捲積層負責「學習」,而池化層負責「濃縮」。

________________________________________

🎯 為什麼要池化?

池化層(Pooling)在卷積神經網路中扮演關鍵角色,主要用來壓縮特徵圖、提升泛化能力與穩定性。當特徵圖太大時,池化可將其尺寸縮小 2~4 倍,降低模型計算負擔與參數量;同時,透過最大值或平均值的選擇,池化能讓模型對位置、旋轉與光線變化更具彈性,提高對不同圖像變化的容忍度;此外,池化能去除細碎的雜訊與過度精細的特徵,幫助模型專注於較抽象的整體結構,進而減少過擬合風險。這使池化成為 CNN 中不可或缺的結構元件。

________________________________________

🧩 常見池化類型:

常見的池化(Pooling)類型有三種,各自具備不同特性與應用場景。Max Pooling 是最常用的方法,每個區塊只保留最大值,能突顯最強的特徵回應,效果明顯且計算簡單;Average Pooling 則取每個區塊的平均值,雖保留特徵較保守,但具備良好的抗雜訊能力,適合需要平滑輸出的場合;Global Average Pooling 是將整張特徵圖的平均作為輸出,常用於分類模型輸出層之前,可大幅減少參數,並自動適應不同尺寸的輸入圖像。根據任務需求選擇適當的池化方式,有助於提升模型的效率與表現。

________________________________________

📐 池化操作示意(Max Pooling 2x2,stride=2)

輸入特徵圖:

1 3 2 4

5 6 7 8

9 1 2 3

4 5 6 7

池化後:

6 8

9 7

🧠 每個 2x2 區塊中選最大值 → 大幅縮小尺寸(從 4x4 → 2x2)

________________________________________

⚙️ TensorFlow / Keras 實作:

python

from tensorflow.keras import layers

model = tf.keras.Sequential([

layers.Conv2D(32, (3, 3), activation='relu', padding='same'),

layers.MaxPooling2D(pool_size=(2, 2), strides=2)

])

這段程式碼建立了一個典型的 CNN 前段結構,首先透過卷積層使用 32 個 3×3 濾鏡搭配 ReLU 激活函數提取局部特徵,並採用 same padding 保留輸出尺寸;接著透過 2×2 的最大池化層將特徵圖長寬縮小一半,有效降低運算量並提升對位置變化的容忍度。此設計常用於影像分類任務中,用於初步提取與濃縮圖像特徵。

________________________________________

📊 池化與卷積的差異比較:

卷積層與池化層是 CNN 中互補的核心結構。**卷積層(Conv2D)負責擷取圖像中的邊緣、紋理等特徵,具有可訓練的權重,可學習局部圖案的細節,因此對位置變化較敏感;而池化層(Pooling)**則不具學習參數,專注於濃縮與壓縮特徵資訊,透過取最大值或平均值保留整體輪廓,有助於提升模型對平移、旋轉等變化的容忍度。兩者搭配使用,能讓模型在保留關鍵特徵的同時降低運算負擔並強化泛化能力。

________________________________________

💡 池化層設計建議:

在設計卷積神經網路時,池化層建議以 MaxPooling 為主,常用設定為 pool_size=(2, 2) 和 strides=2,可有效將特徵圖縮小一半,降低計算成本並強化特徵抽象能力。實務上通常每兩層卷積後加入一次池化,以控制模型規模並防止過擬合;此外,輸出層前可使用 GlobalAveragePooling,進一步壓縮特徵圖並減少參數。池化層雖無學習參數,卻能顯著提升模型的空間容忍度與泛化效果,是建立穩健 CNN 架構的重要元件。

________________________________________

🎯 小結與啟示:

✅ 池化層能有效「縮小」特徵圖,減少模型計算量與過擬合風險

✅ MaxPooling 是最常見方式,保留圖像中最重要特徵

✅ 池化提升 CNN 對位置、旋轉、雜訊的容錯能力與泛化力


留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
8會員
148內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/09/04
卷積層透過濾鏡在圖像上滑動,提取局部特徵並生成特徵圖,能有效學習邊緣、紋理與形狀。其超參數如濾鏡大小、步幅、padding 與濾鏡數量會影響輸出效果。相比 MLP,CNN 透過參數共享與局部感知減少參數量並保留空間資訊,能逐層學習由低階到高階的語意特徵,成為影像辨識的關鍵技術。
2025/09/04
卷積層透過濾鏡在圖像上滑動,提取局部特徵並生成特徵圖,能有效學習邊緣、紋理與形狀。其超參數如濾鏡大小、步幅、padding 與濾鏡數量會影響輸出效果。相比 MLP,CNN 透過參數共享與局部感知減少參數量並保留空間資訊,能逐層學習由低階到高階的語意特徵,成為影像辨識的關鍵技術。
2025/09/04
卷積神經網路(CNN)模仿人類視覺皮質,利用區域感受野、參數共享與層層堆疊學習特徵,能有效降低參數並保留空間資訊,克服 MLP 處理影像的不足。代表性模型 LeNet-5 開啟影像辨識革命,後續 CNN 廣泛應用於圖像分類、醫療診斷、自動駕駛與手機應用,成為深度學習處理視覺與語音資料的核心技術。
2025/09/04
卷積神經網路(CNN)模仿人類視覺皮質,利用區域感受野、參數共享與層層堆疊學習特徵,能有效降低參數並保留空間資訊,克服 MLP 處理影像的不足。代表性模型 LeNet-5 開啟影像辨識革命,後續 CNN 廣泛應用於圖像分類、醫療診斷、自動駕駛與手機應用,成為深度學習處理視覺與語音資料的核心技術。
2025/09/04
第二週聚焦多層感知器(MLP)的訓練技巧:分類任務用交叉熵、迴歸用均方誤差;採用 Mini-Batch 提升效率與穩定性;權重初始化選 Xavier 或 He,避免梯度問題;透過早停與模型保存防止過擬合並保留最佳版本;加入 Dropout 增強泛化能力。
2025/09/04
第二週聚焦多層感知器(MLP)的訓練技巧:分類任務用交叉熵、迴歸用均方誤差;採用 Mini-Batch 提升效率與穩定性;權重初始化選 Xavier 或 He,避免梯度問題;透過早停與模型保存防止過擬合並保留最佳版本;加入 Dropout 增強泛化能力。
看更多
你可能也想看
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
本篇文章介紹如何使用PyTorch構建和訓練圖神經網絡(GNN),並使用Cora資料集進行節點分類任務。通過模型架構的逐步優化,包括引入批量標準化和獨立的消息傳遞層,調整Dropout和聚合函數,顯著提高了模型的分類準確率。實驗結果表明,經過優化的GNN模型在處理圖結構數據具有強大的性能和應用潛力。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News