第二部:《深度學習》11/100 多層感知器結構解析 🏗 輸入層 → 隱藏層 → 輸出層一氣呵成!

更新 發佈閱讀 5 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

11/100 第二週:多層感知器 MLP

11. 多層感知器結構解析 🏗 輸入層 → 隱藏層 → 輸出層一氣呵成!

✅ 核心概念:

多層感知器(MLP)是最基本的前饋神經網路,由多個「全連接層」堆疊而成,資料從輸入端進入,經過每一層處理後,在輸出端產生預測。整體如大腦中神經元層層傳遞訊號,一氣呵成!

📌 每一層都包含:

加權總和(Wx + b)

非線性激活函數(如 ReLU)

輸出給下一層

________________________________________

🧠 模擬人腦的小註解:

MLP 的每一層就像大腦的一個小區塊,每個神經元接收刺激、處理資訊、再把訊號傳給下一層。層層傳遞、層層抽象,最終「做出判斷」!

________________________________________

🧩 結構解析圖:


[ 輸入層 ] [ 隱藏層 ] [ 輸出層 ]

x1 ─┐ ● y0

x2 ─┼──▶▶▶──▶▶▶──▶▶▶●─── Softmax ──▶▶▶▶▶▶▶▶▶ y1

... ─┤ ● ...

x784┘ ● y9

輸入:784維像素值

隱藏層:Dense + ReLU

輸出層:10個分類節點,代表數字 0~9

這是一個典型的多層感知器(MLP)結構,用於圖像分類(如 MNIST 手寫數字辨識)。輸入層有 784 個節點,代表 28×28 像素的灰階圖像,將每個像素展平成一維向量。資料經由全連接的隱藏層(Dense)傳遞,並透過 ReLU 函數引入非線性,使模型能捕捉複雜特徵。最後的輸出層包含 10 個節點,透過 Softmax 函數將輸出轉換為機率分佈,代表輸入圖像分別屬於數字 0 到 9 的機率,進行最終分類。這樣的結構可有效學習圖像與數字標籤之間的對應關係。

________________________________________

🏗 層級解析說明表:

層級 結構示意 功能與目的

🟩 輸入層 Flatten(28x28 → 784) 將圖片轉為一維向量,準備進入神經網路

🟨 隱藏層 Dense(128) + ReLU 學習資料中抽象特徵,加入非線性使模型更強大

🟥 輸出層 Dense(10) + Softmax 輸出對應每個類別的預測機率,進行分類任務

________________________________________


✅ TensorFlow 實作範本(複習):


python


model = tf.keras.models.Sequential([

tf.keras.layers.Flatten(input_shape=(28, 28)),

tf.keras.layers.Dense(128, activation='relu'),

tf.keras.layers.Dropout(0.2),

tf.keras.layers.Dense(10, activation='softmax')

])


這段程式碼建立了一個用於手寫數字辨識的神經網路模型。它首先將 28×28 的圖像展平成一維向量,接著透過一層具有 128 個神經元的全連接層並使用 ReLU 激活函數進行特徵提取,加入 Dropout 防止過擬合,最後經由 Softmax 輸出層將結果轉換為對應 0~9 的分類機率,整體結構簡單且適合初學者用於圖像分類任務。

_________________________________

🎯 小結與提醒:

✅ MLP 是你學習深度學習的第一個實戰模型

✅ 每一層都像大腦中的一個處理器:層層學習 → 層層理解

✅ 結構雖簡,但已能完成圖像分類、文字分類等多種任務



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
16會員
338內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/08/29
AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》 10/100 第一週:深度學習基礎入門 10.小結與測驗:手寫數字分類(MNIST)🖊 用 TensorFlow 練習第一個深度模型! __________________________________
2025/08/29
AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》 10/100 第一週:深度學習基礎入門 10.小結與測驗:手寫數字分類(MNIST)🖊 用 TensorFlow 練習第一個深度模型! __________________________________
2025/08/29
為提升模型泛化能力,資料須切分為訓練集、驗證集與測試集。訓練集用來學習參數,驗證集用於調參與早停,測試集則專供最終評估,不能參與訓練。常見比例為 6:2:2,資料量少時可用 K-Fold 交叉驗證確保評估穩定。適當切分資料能避免模型「偷看答案」,確保學習效果真實可靠。
2025/08/29
為提升模型泛化能力,資料須切分為訓練集、驗證集與測試集。訓練集用來學習參數,驗證集用於調參與早停,測試集則專供最終評估,不能參與訓練。常見比例為 6:2:2,資料量少時可用 K-Fold 交叉驗證確保評估穩定。適當切分資料能避免模型「偷看答案」,確保學習效果真實可靠。
2025/08/29
過擬合是模型記住訓練資料細節,導致無法泛化。可透過 Dropout、L2 正則化、Early Stopping 等方法限制模型過度學習,提升對新資料的表現,讓模型學會規律而非死背答案。
2025/08/29
過擬合是模型記住訓練資料細節,導致無法泛化。可透過 Dropout、L2 正則化、Early Stopping 等方法限制模型過度學習,提升對新資料的表現,讓模型學會規律而非死背答案。
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
透過這篇文章,我們將瞭解如何使用PyTorch實作圖神經網絡中的訊息傳遞機制,從定義消息傳遞的類別到實作消息傳遞過程。我們也探討了各種不同的消息傳遞機制,並通過對單次和多次傳遞過程的結果,可以看到節點特徵如何逐步傳遞與更新。
Thumbnail
透過這篇文章,我們將瞭解如何使用PyTorch實作圖神經網絡中的訊息傳遞機制,從定義消息傳遞的類別到實作消息傳遞過程。我們也探討了各種不同的消息傳遞機制,並通過對單次和多次傳遞過程的結果,可以看到節點特徵如何逐步傳遞與更新。
Thumbnail
本篇文章專注於消息傳遞(message passing)在圖神經網絡(GNN)中的應用,並以簡單的例子解釋了消息傳遞的過程和機制。
Thumbnail
本篇文章專注於消息傳遞(message passing)在圖神經網絡(GNN)中的應用,並以簡單的例子解釋了消息傳遞的過程和機制。
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News