AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》
12/100 第二週:多層感知器 MLP
12.為什麼需要隱藏層?🧱 加深模型,學出抽象概念!
________________________________________
✅ 核心概念:
在神經網路中,「隱藏層(Hidden Layers)」是整個學習過程的靈魂所在。沒有它,模型僅能處理線性可分的問題,一旦遇到複雜的影像、語音、語意分析,就完全無法應對。
📌 一句話總結:
隱藏層讓神經網路具備「看見抽象規律」的能力。
________________________________________
🧠 類比:大腦的處理過程
想像你看到一隻動物:
• 第一層辨識邊緣(耳朵、腳)
• 第二層辨識局部形狀(頭、身體)
• 第三層辨識整體概念(這是「貓」)
📌 每一層都負責處理「不同層級的抽象」,這就是隱藏層的作用。
________________________________________
🧩 隱藏層的功能分層:
層級 功能說明 類比於大腦的處理
🟩 輸入層 接收原始資料(像素、文字、數值) 感官輸入
🟨 隱藏層 1 提取低階特徵(如邊緣、顏色、簡單模式) 初階視覺皮質
🟨 隱藏層 2+ 組合與抽象中高階特徵(形狀、概念) 聯合皮質
🟥 輸出層 預測分類結果(機率分布) 意識反應 / 決策
________________________________________
🔬 數學觀點:
沒有隱藏層的神經網路 = 僅執行線性轉換(Wx + b)
📉 這會導致:
• 只能解決線性分類問題(如 AND、OR)
• 無法處理 XOR 問題
• 難以擴展到語音辨識、圖像辨識等任務
➡️ 加入隱藏層 + 激活函數(如 ReLU)後,模型才能擁有非線性擬合能力。
________________________________________
🏗️ 小圖示(層層抽象):
👉 輸入層 🟩 接收784個像素值(28x28圖像展平成一維向量),是原始資料的起點;
👉 第一隱藏層 🟨 提取邊緣、顏色變化與基本輪廓;
👉 第二隱藏層 🟨 進一步組合特徵,辨識形狀與局部結構;
👉 第三隱藏層 🟨(視任務需要)形成更高層次的抽象語義,例如「數字8的中間空洞」;
👉 輸出層 🟥 將最終特徵轉換為0到9的分類機率,輸出預測結果。
這張小圖示以「層層抽象」的方式,簡明呈現了神經網路處理影像(如MNIST手寫數字)時的資料流與特徵轉換歷程:
整體過程展現出深度學習「由低階到高階、由具體到抽象」的特徵學習能力,是人工智慧模擬人腦視覺處理的重要基礎。
________________________________________
✅ MLP 的演化思路:
結構 能力
無隱藏層 只能做線性分類
單隱藏層 可解非線性問題,如 XOR
多個隱藏層 層層抽象、學習複雜結構與語意
深層神經網路 具備表現任意函數的理論能力
________________________________________
🎯 小結與啟示:
✅ 隱藏層 = 模型學習「邏輯」與「概念」的關鍵橋樑
✅ 沒有隱藏層,模型就像死記資料的計算器
✅ 有了隱藏層,神經網路才能理解圖像、文字、語音中的抽象規律