第二部:《深度學習》20/100 小結與測驗-:兩層感知器分類玩具資料 🎮 開始打造屬於你的神經網路!

更新於 發佈於 閱讀時間約 8 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

20/100 第二週:多層感知器 MLP

20.小結與測驗-:兩層感知器分類玩具資料 🎮 開始打造屬於你的神經網路!

________________________________________

✅ 一、單元重點總覽(11~19 節整理)

11 🏗結構解析 : MLP = 輸入層 + 隱藏層 + 輸出層,全連接 Dense 結構

12 🧱為何需要隱藏層?: 隱藏層能學會抽象特徵與非線性邏輯(例如 XOR)

13 🔧激活函數 : ReLU、Tanh、Sigmoid 為神經元提供非線性能力

14 📉學習率與梯度下降 : 學習率決定更新步伐大小,搭配 SGD、Adam 等優化器進行學習

15 ⚖損失函數 : 分類用 Cross Entropy,迴歸用 MSE;選錯會導致學習困難

16 📦批次訓練策略 : Mini-Batch 為實務主流訓練法,兼顧效率與穩定性

17 🌱權重初始化 : He/Xavier 根據激活函數選擇,避免梯度爆炸或消失

18 🛑早停與模型保存 : EarlyStopping + ModelCheckpoint 可有效防過擬合並保留最佳模型

19 🌧Dropout : 模擬神經網路部分失效,強迫模型泛化,降低過擬合風險

________________________________________

📝 二、概念測驗(單選題)

1️⃣ 激活函數的主要作用是?

A. 增加模型深度

B. 引入非線性,提升模型表達力

C. 降低記憶體用量

D. 替代損失函數

✅ 答案:B

🔍 解析:若無非線性激活,神經網路只能學線性映射。

________________________________________

2️⃣ Dropout 的主要目的?

A. 提高學習率

B. 儲存模型

C. 模型泛化、避免過擬合

D. 快速初始化

✅ 答案:C

🔍 Dropout 會隨機關閉部分神經元,迫使模型更有彈性學習。

________________________________________

3️⃣ 哪個損失函數最適合二分類任務?

A. Mean Squared Error

B. Categorical Cross Entropy

C. Binary Cross Entropy

D. Hinge Loss

✅ 答案:C

🔍 Binary Cross Entropy 可處理 0/1 機率輸出,對應 Sigmoid。

________________________________________

4️⃣ Early Stopping 的作用是?

A. 加速模型推論

B. 在最佳驗證表現時自動停止訓練

C. 記錄訓練日誌

D. 增加學習率

✅ 答案:B

🔍 可防止模型持續訓練至過擬合,節省資源。

________________________________________

5️⃣ Xavier 與 He 初始化的差異?

A. Xavier 適合 ReLU

B. He 會固定所有權重

C. Xavier 適用 Sigmoid,He 適用 ReLU

D. Xavier 只用於輸出層

✅ 答案:C

🔍 兩者設計出發點不同,適用不同的激活函數。

________________________________________

✍️ 三、簡答題

Q1. 為什麼使用 Dropout 能改善模型的泛化能力?

✅ 參考解答: Dropout 會在訓練時隨機忽略部分神經元連接,讓模型不依賴單一特徵而學習更多樣性,有效減少過擬合現象。

________________________________________

Q2. 試說明 Early Stopping + Model Checkpoint 結合的優點?

✅ 參考解答: Early Stopping 能偵測驗證集效能停止進步的時點並提前停止訓練;ModelCheckpoint 則可在此同時保留當前最優模型,確保模型部署效能最佳。

________________________________________

🎮 四、實作任務:兩層 MLP 分類玩具資料

📦 使用 make_moons 模擬分類問題:

python

from sklearn.datasets import make_moons

X, y = make_moons(n_samples=1000, noise=0.2, random_state=42)

🧠 建立模型(兩層感知器):

python

import tensorflow as tf

from tensorflow.keras import layers

model = tf.keras.Sequential([

layers.Dense(32, activation='relu', input_shape=(2,)),

layers.Dropout(0.3),

layers.Dense(16, activation='relu'),

layers.Dense(1, activation='sigmoid')

])

model.compile(optimizer='adam',

loss='binary_crossentropy',

metrics=['accuracy'])

model.fit(X, y, epochs=30, batch_size=32, validation_split=0.2)

這段程式碼利用 make_moons 產生一個具噪音的二分類資料集,常用來模擬非線性分類任務。模型為一個簡單的全連接神經網路,包含兩層隱藏層:第一層有 32 個神經元並搭配 ReLU 激活與 30% Dropout,第二層有 16 個 ReLU 神經元,最後輸出層使用 Sigmoid 激活,適用於二分類。模型使用 Adam 優化器與二元交叉熵損失函數,並以 20% 的資料做驗證集,訓練 30 輪。整體設計簡潔,適合用於練習非線性分類與 Dropout 正規化技巧。

📈 這是你實作出來的第一個完整 MLP 分類模型,已可應對非線性邊界的真實資料集!

________________________________________

🎯 小結與啟示

✅ 你已掌握建構與訓練 MLP 所需的基本技術

✅ MLP 能處理二分類、多分類、迴歸等任務,是神經網路入門核心

✅ 適當結合激活函數、初始化策略、正則化手段與早停法,可打造穩定表現的模型



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
8會員
137內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/09/04
Dropout 是防止過擬合的正則化技巧,訓練時隨機關閉部分神經元,迫使模型學習更通用的特徵,提升泛化能力。推論時會啟用所有神經元並縮放輸出,保持一致性。常見比例:MLP 0.20.5,CNN 0.10.3,RNN 可用 recurrent_dropout。
2025/09/04
Dropout 是防止過擬合的正則化技巧,訓練時隨機關閉部分神經元,迫使模型學習更通用的特徵,提升泛化能力。推論時會啟用所有神經元並縮放輸出,保持一致性。常見比例:MLP 0.20.5,CNN 0.10.3,RNN 可用 recurrent_dropout。
2025/09/04
早停法與模型保存是避免過度訓練的關鍵策略。早停能在驗證集表現連續數輪未改善時自動中止訓練,防止過擬合;模型保存則確保最佳權重被記錄,不會被後續結果覆蓋。兩者結合能節省時間、保留最佳版本,方便後續部署與跨平台應用,是深度學習實務中最成熟且必要的訓練技巧。
2025/09/04
早停法與模型保存是避免過度訓練的關鍵策略。早停能在驗證集表現連續數輪未改善時自動中止訓練,防止過擬合;模型保存則確保最佳權重被記錄,不會被後續結果覆蓋。兩者結合能節省時間、保留最佳版本,方便後續部署與跨平台應用,是深度學習實務中最成熟且必要的訓練技巧。
2025/09/04
權重初始化決定神經網路能否順利啟動學習。若全部設為零,對稱性無法打破;隨機過大或過小則會造成梯度爆炸或消失。常見方法中,Xavier 適合 Sigmoid/Tanh,He 初始化適合 ReLU 系列,能提升收斂速度與穩定性;隨機正態易不穩定,Zero 無法收斂。正確初始化策略是深度學習成功的第一步。
2025/09/04
權重初始化決定神經網路能否順利啟動學習。若全部設為零,對稱性無法打破;隨機過大或過小則會造成梯度爆炸或消失。常見方法中,Xavier 適合 Sigmoid/Tanh,He 初始化適合 ReLU 系列,能提升收斂速度與穩定性;隨機正態易不穩定,Zero 無法收斂。正確初始化策略是深度學習成功的第一步。
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
本文要探討AI的任務與實戰場景。AI技術已深入生活各層面,從違約預測到都市交通管理。AI任務主要有三類:數值型資料處理、自然語言處理(NLP)和電腦影像辨識。時間序列資料和強化學習方法(如AlphaGo)也引起廣泛關注。AI演算法和方法因應不同學派和技術發展而多樣化,了解這些基礎有助選擇適合研究方向
Thumbnail
本文要探討AI的任務與實戰場景。AI技術已深入生活各層面,從違約預測到都市交通管理。AI任務主要有三類:數值型資料處理、自然語言處理(NLP)和電腦影像辨識。時間序列資料和強化學習方法(如AlphaGo)也引起廣泛關注。AI演算法和方法因應不同學派和技術發展而多樣化,了解這些基礎有助選擇適合研究方向
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
這篇文章介紹瞭如何利用單晶片來控制不同功能模組的應用,並分享了親手體驗的影片和遇到的卡關。文章強調了需要具備基礎程式語言撰寫的邏輯,以及解決卡關時需要個人調整程式碼的順序。
Thumbnail
這篇文章介紹瞭如何利用單晶片來控制不同功能模組的應用,並分享了親手體驗的影片和遇到的卡關。文章強調了需要具備基礎程式語言撰寫的邏輯,以及解決卡關時需要個人調整程式碼的順序。
Thumbnail
在晶狀智慧的時代,人類與AI共舞,共同建構更先進、更智能的未來。這是一場革命,一場改變人類命運的奇蹟,讓我們共同見證這個智慧的新紀元。
Thumbnail
在晶狀智慧的時代,人類與AI共舞,共同建構更先進、更智能的未來。這是一場革命,一場改變人類命運的奇蹟,讓我們共同見證這個智慧的新紀元。
Thumbnail
誠品生活|科技應用 書櫃陳列著與AI相關軟硬體的科技應用實作材料包,包含物聯網、影像辨識、機器學習、生醫感測等實作套裝材料。 選擇趨勢|科技玩物 這麼多科技應用實作包,怎麼選呢? 科技日新月異 科技玩物在生活中反應的特徵詞: 顛覆、科幻、新奇、便利、酷炫、魔法、未來
Thumbnail
誠品生活|科技應用 書櫃陳列著與AI相關軟硬體的科技應用實作材料包,包含物聯網、影像辨識、機器學習、生醫感測等實作套裝材料。 選擇趨勢|科技玩物 這麼多科技應用實作包,怎麼選呢? 科技日新月異 科技玩物在生活中反應的特徵詞: 顛覆、科幻、新奇、便利、酷炫、魔法、未來
Thumbnail
2023年被世人稱做生成式AI世代的元年,各式各樣的AI工具不斷湧現,改變了人們的生活。本文將詳細介紹人工智慧和機器學習的相關知識,以及各種人工智慧和機器學習的實現方法。
Thumbnail
2023年被世人稱做生成式AI世代的元年,各式各樣的AI工具不斷湧現,改變了人們的生活。本文將詳細介紹人工智慧和機器學習的相關知識,以及各種人工智慧和機器學習的實現方法。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News