AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》
11/100 第二週:多層感知器 MLP
11. 多層感知器結構解析 🏗 輸入層 → 隱藏層 → 輸出層一氣呵成!
✅ 核心概念:
多層感知器(MLP)是最基本的前饋神經網路,由多個「全連接層」堆疊而成,資料從輸入端進入,經過每一層處理後,在輸出端產生預測。整體如大腦中神經元層層傳遞訊號,一氣呵成!
📌 每一層都包含:
• 加權總和(Wx + b)
• 非線性激活函數(如 ReLU)
• 輸出給下一層
________________________________________
🧠 模擬人腦的小註解:
MLP 的每一層就像大腦的一個小區塊,每個神經元接收刺激、處理資訊、再把訊號傳給下一層。層層傳遞、層層抽象,最終「做出判斷」!
________________________________________
🧩 結構解析圖:
[ 輸入層 ] [ 隱藏層 ] [ 輸出層 ]
x1 ─┐ ● y0
x2 ─┼──▶▶▶──▶▶▶──▶▶▶●─── Softmax ──▶▶▶▶▶▶▶▶▶ y1
... ─┤ ● ...
x784┘ ● y9
輸入:784維像素值
隱藏層:Dense + ReLU
輸出層:10個分類節點,代表數字 0~9
這是一個典型的多層感知器(MLP)結構,用於圖像分類(如 MNIST 手寫數字辨識)。輸入層有 784 個節點,代表 28×28 像素的灰階圖像,將每個像素展平成一維向量。資料經由全連接的隱藏層(Dense)傳遞,並透過 ReLU 函數引入非線性,使模型能捕捉複雜特徵。最後的輸出層包含 10 個節點,透過 Softmax 函數將輸出轉換為機率分佈,代表輸入圖像分別屬於數字 0 到 9 的機率,進行最終分類。這樣的結構可有效學習圖像與數字標籤之間的對應關係。
________________________________________
🏗 層級解析說明表:
層級 結構示意 功能與目的
🟩 輸入層 Flatten(28x28 → 784) 將圖片轉為一維向量,準備進入神經網路
🟨 隱藏層 Dense(128) + ReLU 學習資料中抽象特徵,加入非線性使模型更強大
🟥 輸出層 Dense(10) + Softmax 輸出對應每個類別的預測機率,進行分類任務
________________________________________
✅ TensorFlow 實作範本(複習):
python
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10, activation='softmax')
])
這段程式碼建立了一個用於手寫數字辨識的神經網路模型。它首先將 28×28 的圖像展平成一維向量,接著透過一層具有 128 個神經元的全連接層並使用 ReLU 激活函數進行特徵提取,加入 Dropout 防止過擬合,最後經由 Softmax 輸出層將結果轉換為對應 0~9 的分類機率,整體結構簡單且適合初學者用於圖像分類任務。
_________________________________
🎯 小結與提醒:
✅ MLP 是你學習深度學習的第一個實戰模型
✅ 每一層都像大腦中的一個處理器:層層學習 → 層層理解
✅ 結構雖簡,但已能完成圖像分類、文字分類等多種任務