AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》
3/100 第一週:深度學習基礎入門
3.神經網路的基本結構:感知機 🧩 每一層神經元都在幫你解決問題!
________________________________________
✅ 核心概念:
感知機(Perceptron)是最早的神經網路雛形,由數個輸入節點、加權連結與一個激活函數所組成。它模仿生物神經元的行為,能對輸入資料進行分類與決策。
📌 一句話:
感知機是一種模擬「大腦單一神經元」的數學模型,為現代神經網路的基礎單元。
________________________________________
✅ 感知機的數學原理:
一個簡單的感知機會執行以下計算流程:
輸入資料 → 加權總和 → 激活函數 → 輸出結果
學公式表示:
output = activation( w₁x₁ + w₂x₂ + ... + wₙxₙ + b )
元素 : 說明
x₁, x₂, ..., xₙ : 輸入特徵向量
w₁, w₂, ..., wₙ : 權重(weight)
b : 偏差項(bias)
activation 激活函數(如 Sigmoid、ReLU)
output 輸出(例如類別0或1)
________________________________________
✅ 多層感知機(MLP)結構圖解:
輸入層 → 隱藏層(可多層)→ 輸出層
每一層由數個感知機組成
[ x1 ] [ o ]───\
[ x2 ] ─▶▶▶ [ o ]───▶ [ y ]
[ x3 ] [ o ]───/
↑
隱藏層
這是一個簡單的多層感知機(MLP)架構,包含一個輸入層(x1、x2、x3)、一個隱藏層(多個神經元)和一個輸出層(y)。輸入特徵經過隱藏層神經元的加權運算與激活函數處理後,再傳遞到輸出層產生最終預測結果。隱藏層的存在使模型能夠學習更複雜的非線性關係,是深度學習的基本單元結構。
________________________________________
✅ 激活函數(Activation Functions)一覽:
在神經網路中,激活函數扮演著將神經元的線性輸出轉換為非線性映射的關鍵角色,讓模型能處理更複雜的資料與模式。不同激活函數適用於不同任務,其選擇會直接影響訓練效率與預測效果。
函數名稱 : 公式 : 特點與應用
Sigmoid 1 / (1 + e^-x) 使輸出介於 0~1,適用於二分類,但易梯度消失
ReLU max(0, x) 快速收斂、解決梯度問題,是目前最常用函數
Tanh (e^x - e^-x) / (e^x + e^-x) 輸出介於 -1~1,對稱性強
Softmax e^xᵢ / Σe^xⱼ 多分類問題中常用於輸出層
________________________________________
✅ 感知機的重要歷史角色:
感知機(Perceptron)是人工神經網路的基礎單位,由美國科學家 Frank Rosenblatt 在 1958 年提出,是最早的神經元模型之一,主要用於二分類任務。
年代 貢獻者 成就
1958 Frank Rosenblatt 提出「感知機」理論,模擬神經元運作
1986 Rumelhart et al. 發展反向傳播法(Backpropagation),解決 XOR 問題
2012 AlexNet 團隊 利用深層神經網路在 ImageNet 比賽大放異彩
_______________________________________
_
✅ 感知機實務應用小案例:
應用場景 描述
二分類問題 是否為垃圾郵件?(0 = 否,1 = 是)
線性可分資料集 對於如 OR / AND 邏輯可直接劃分區域分類
圖像初步辨識 單一像素特徵輸入 → 是否為黑白邊緣判斷
________________________________________
✅ 小結與學習重點 🔑
✅ 感知機是神經網路的基礎細胞
✅ 多層感知機(MLP)解決了 XOR 等非線性問題
✅ 激活函數是讓神經網路具備「非線性學習能力」的關鍵
✅ 打好基礎,才能進一步學習 CNN、RNN 等高階結構!
📌 小結金句:
「感知機是一切神經網路的開端,它點燃了深度學習的智慧火種。」















