第二部:《深度學習》9/100 訓練、驗證與測試資料切分 📂 別讓模型偷看到答案!

更新於 發佈於 閱讀時間約 5 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》

9/100 第一週:深度學習基礎入門

9.訓練、驗證與測試資料切分 📂 別讓模型偷看到答案!

_______________________________________

✅ 核心概念:

機器學習的關鍵目標是泛化能力,也就是模型在「從未見過的資料」上也能做出準確預測。為了評估模型是否真的學得好,我們必須將資料切分成:

訓練集(Training Set):用來學習權重與偏差

驗證集(Validation Set):用來調整參數與早停

測試集(Test Set):模擬最終實戰表現,完全不能用來訓練!

📌 一句話總結:

資料不切分,模型就會「作弊」學到答案,失去實戰價值!

________________________________________

✅ 三種資料集的作用比較:

在機器學習中,資料集通常分為三種:訓練集、驗證集與測試集。訓練集是用來讓模型學習與反覆調整參數的資料,參與訓練與調參,但不反映最終效能;驗證集則用來幫助選擇最佳模型架構與超參數組合,不參與訓練,但用來調參;測試集則完全不參與訓練與調參,專門用來評估模型在未見資料上的最終表現,是衡量模型泛化能力的關鍵依據。

________________________________________

✅ 常見切分比例:

模型任務 訓練 / 驗證 / 測試比例建議

標準應用 60% / 20% / 20%

小型資料 70% / 15% / 15%

超大資料 98% / 1% / 1%

📌 注意:驗證集 ≠ 測試集!不能「訓練用完就測試」,否則結果會過於樂觀。

________________________________________

✅ 資料切分實作(以 Python 為例):

python


from sklearn.model_selection import train_test_split


# 假設有資料 X, 標籤 y

X_train, X_temp, y_train, y_temp = train_test_split(X, y, test_size=0.4, random_state=42)

X_val, X_test, y_val, y_test = train_test_split(X_temp, y_temp, test_size=0.5, random_state=42)

📂 結果:

60% → 訓練集

20% → 驗證集

20% → 測試集

這段程式碼使用 train_test_split 將原始資料集 X 和標籤 y 按照 6:2:2 的比例分成訓練集、驗證集與測試集。首先將 40% 的資料從原始資料中切出作為臨時集(X_temp、y_temp),再將這 40% 平均分為驗證集與測試集各 20%。這種分法有助於模型訓練、調參與評估的分工清晰,確保每個階段使用獨立資料,提升模型泛化能力。

________________________________________

✅ K-Fold 交叉驗證(進階補充)

當資料集太小,不容易切出穩定的驗證集時,可以使用 K-Fold Cross Validation:

📌 做法:

1. 將資料平均分成 K 份

2. 每次選其中一份當驗證,其餘當訓練

3. 重複 K 次,平均各次結果

📌 優點:

適合小資料集

評估結果更穩定、不偏頗

________________________________________

✅ 小結與啟示 💡

✅ 訓練、驗證、測試資料切分 = AI 模型訓練的三道防線

✅ 驗證集幫助「調參」,測試集才是「真正考試」

✅ 資料切得好,模型才學得真、測得準

✅ 千萬別偷看答案,否則你只是在自我欺騙!



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
8會員
119內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/08/29
過擬合是模型記住訓練資料細節,導致無法泛化。可透過 Dropout、L2 正則化、Early Stopping 等方法限制模型過度學習,提升對新資料的表現,讓模型學會規律而非死背答案。
2025/08/29
過擬合是模型記住訓練資料細節,導致無法泛化。可透過 Dropout、L2 正則化、Early Stopping 等方法限制模型過度學習,提升對新資料的表現,讓模型學會規律而非死背答案。
2025/07/11
深度學習透過多層神經網路自動學習資料特徵,廣泛應用於語音辨識、影像處理、自然語言理解與創意生成等領域。其強大能力源於可處理非線性關係並支援結構化與非結構化資料,常見模型如 CNN、Transformer、GAN 等。應用實例包含 Siri 語音助理、醫療影像判讀、AI 作畫與機器翻譯等。
2025/07/11
深度學習透過多層神經網路自動學習資料特徵,廣泛應用於語音辨識、影像處理、自然語言理解與創意生成等領域。其強大能力源於可處理非線性關係並支援結構化與非結構化資料,常見模型如 CNN、Transformer、GAN 等。應用實例包含 Siri 語音助理、醫療影像判讀、AI 作畫與機器翻譯等。
2025/07/11
損失函數用來衡量模型預測與實際結果的誤差,如 MSE、Cross Entropy 等;而優化器則根據這些誤差反向調整神經網路的權重與偏差,使模型學習更精準。常見優化器如 Adam 結合 Momentum 和 RMSProp,具備快速收斂與穩定性高的特點。兩者就像導航與方向盤,引導模型走向最優解。
2025/07/11
損失函數用來衡量模型預測與實際結果的誤差,如 MSE、Cross Entropy 等;而優化器則根據這些誤差反向調整神經網路的權重與偏差,使模型學習更精準。常見優化器如 Adam 結合 Momentum 和 RMSProp,具備快速收斂與穩定性高的特點。兩者就像導航與方向盤,引導模型走向最優解。
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
數據分析與解讀 隨著數據的爆炸式增長,能夠分析、解讀和應用數據的能力變得至關重要。這包括熟悉數據分析工具和技術,如統計學、數據挖掘、機器學習等。然而,僅靠短時間的數據分析並不足以提供深入見解。 要熟悉數據分析工具和技術,如統計學、數據挖掘和機器學習,可以從以下幾個方面入手: 基礎知識的學習
Thumbnail
數據分析與解讀 隨著數據的爆炸式增長,能夠分析、解讀和應用數據的能力變得至關重要。這包括熟悉數據分析工具和技術,如統計學、數據挖掘、機器學習等。然而,僅靠短時間的數據分析並不足以提供深入見解。 要熟悉數據分析工具和技術,如統計學、數據挖掘和機器學習,可以從以下幾個方面入手: 基礎知識的學習
Thumbnail
呈上篇介紹如何訓練模型,此篇就主要介紹如何利用訓練好的模型來生成圖片 [深度學習][Python]DCGAN訓練生成手寫阿拉伯數字_生成篇 生成的結果 生成的圖片大小會根據,當初設置的生成器輸出大小來決定,當你使用生成對抗網絡(GAN)生成圖像時,生成器模型的最後一層通常會決定生成圖
Thumbnail
呈上篇介紹如何訓練模型,此篇就主要介紹如何利用訓練好的模型來生成圖片 [深度學習][Python]DCGAN訓練生成手寫阿拉伯數字_生成篇 生成的結果 生成的圖片大小會根據,當初設置的生成器輸出大小來決定,當你使用生成對抗網絡(GAN)生成圖像時,生成器模型的最後一層通常會決定生成圖
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
延續上一篇訓練GAM模型,這次我們讓神經網路更多層更複雜一點,來看訓練生成的圖片是否效果會更好。 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 資料集分割處理的部分在延續上篇文章,從第五點開始後修改即可,前面都一樣 訓練過程,比較圖 是不是CNN的效果比MLP還要好,
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文主要介紹,如何利用GAN生成對抗網路來訓練生成圖片。 利用tensorflow,中的keras來建立生成器及鑑別器互相競爭訓練,最後利用訓練好的生成器來生成圖片。 GAN生成對抗網路的介紹 它由生成網路(Generator Network)和鑑別網路(Discriminator Netwo
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文介紹了AI助手在數據收集和訓練過程中的工作原理和不斷進步的過程。關注的內容包括從公開的網絡資源、書籍、文章等渠道收集數據,數據的清洗和結構化處理,知識庫的增量更新以及訓練算法和模型的優化。如果大家對AI助手的發展還有任何其他感興趣的話題或建議,歡迎隨時告訴我們,讓我們共同探索,攜手進步。
Thumbnail
本文介紹了AI助手在數據收集和訓練過程中的工作原理和不斷進步的過程。關注的內容包括從公開的網絡資源、書籍、文章等渠道收集數據,數據的清洗和結構化處理,知識庫的增量更新以及訓練算法和模型的優化。如果大家對AI助手的發展還有任何其他感興趣的話題或建議,歡迎隨時告訴我們,讓我們共同探索,攜手進步。
Thumbnail
本文主要介紹神經網路訓練辨識的過程,利用fashion_mnist及簡單的神經網路來進行分類。 使用只有兩層的神經網路來訓練辨識fashion_mnist資料。
Thumbnail
本文主要介紹神經網路訓練辨識的過程,利用fashion_mnist及簡單的神經網路來進行分類。 使用只有兩層的神經網路來訓練辨識fashion_mnist資料。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News