交叉驗證(Cross-Validation)方法

更新 發佈閱讀 2 分鐘

交叉驗證(Cross-Validation)是一種評估和選擇機器學習模型的重要方法,透過將數據集分割成多個子集,多次訓練和驗證模型,來獲得對模型泛化能力更可靠的估計。

常見交叉驗證方法:

1. k折交叉驗證(k-Fold Cross-Validation)

將數據分成k個大小相近的子集,每次用其中一個子集做驗證集,其餘k-1個子集做訓練集。

重複k次,每個子集均做過一次驗證集。最後平均k次驗證結果。

常見k值為5或10。

2. 留一交叉驗證(Leave-One-Out Cross-Validation, LOOCV)

k折交叉驗證的極端情況,k等於樣本數。每次用1個樣本作為驗證集,其餘樣本作訓練。

偏差小,但計算成本高。

3. 分層k折交叉驗證(Stratified k-Fold CV)

特別針對分類任務,保持每個類別在各折中比例一致,防止類別不平衡影響評估結果。

4. 重複k折交叉驗證(Repeated k-Fold CV)

將k折交叉驗證重複多次(不同隨機分割),提高評估穩定性。

5. 時間序列交叉驗證(Time Series CV)

適用於時間序列數據,保證驗證集在訓練集之後,避免未來數據“洩漏”給模型。

交叉驗證的優點:

減少由單次測試集分割造成的隨機偏差。

有助於模型選擇與超參數調整。

能更有效利用有限數據。

簡單比喻:

交叉驗證就像多次換座位試試不同角度看比賽,避免只看一次就得出不完整結論。

總結:

交叉驗證透過多次分割數據集交替訓練與驗證,提供模型泛化性能的穩定估計,常用方法包括k折交叉驗證、留一驗證和分層k折交叉驗證等。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
29會員
495內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/09/03
Occam’s Razor(奧卡姆剃刀原則)是指在所有條件相同的情況下,通常應該選擇最簡單且假設最少的解釋或模型。在機器學習中,這意味著當多個模型在訓練數據上的表現相似時,應傾向於選擇參數最少、結構最簡單的模型。 Occam’s Razor在機器學習中的意義: • 簡單模型更有可能泛化良好,不
2025/09/03
Occam’s Razor(奧卡姆剃刀原則)是指在所有條件相同的情況下,通常應該選擇最簡單且假設最少的解釋或模型。在機器學習中,這意味著當多個模型在訓練數據上的表現相似時,應傾向於選擇參數最少、結構最簡單的模型。 Occam’s Razor在機器學習中的意義: • 簡單模型更有可能泛化良好,不
2025/09/03
神經網路中的特徵工程通常與傳統機器學習有所不同,因為深度神經網路具有自動學習有效特徵(Feature Learning)的能力,能從原始資料中自動抽取和組合複雜的特徵表示,減少對人工特徵工程的依賴。 神經網路中常見的特徵工程相關模型與方法: 1. 卷積神經網路(CNN) • 專門用於圖像處理
2025/09/03
神經網路中的特徵工程通常與傳統機器學習有所不同,因為深度神經網路具有自動學習有效特徵(Feature Learning)的能力,能從原始資料中自動抽取和組合複雜的特徵表示,減少對人工特徵工程的依賴。 神經網路中常見的特徵工程相關模型與方法: 1. 卷積神經網路(CNN) • 專門用於圖像處理
2025/09/03
集成模型(Ensemble Models)是在機器學習中通過結合多個基礎模型(Base Models)來提升整體預測性能和穩定性的技術。常見的集成模型方法主要有以下幾類: 常見集成模型類型 1. 裝袋法(Bagging,Bootstrap Aggregating) • 通過對訓練數據進行有放
2025/09/03
集成模型(Ensemble Models)是在機器學習中通過結合多個基礎模型(Base Models)來提升整體預測性能和穩定性的技術。常見的集成模型方法主要有以下幾類: 常見集成模型類型 1. 裝袋法(Bagging,Bootstrap Aggregating) • 通過對訓練數據進行有放
看更多
你可能也想看
Thumbnail
如果包含以前嘗試的,我肯定試超過20種以上「新奇口味」的餅乾,但現在的「新奇口味」像雨後春筍般,多到我疲乏了。所以這次雙11,我要怎麼買呢?
Thumbnail
如果包含以前嘗試的,我肯定試超過20種以上「新奇口味」的餅乾,但現在的「新奇口味」像雨後春筍般,多到我疲乏了。所以這次雙11,我要怎麼買呢?
Thumbnail
最近開始轉涼了,各位鳥奴們是否會開始擔心小鳥會著涼呢?不用擔心,今天這篇直接帶你看需要的商品,而且今天除了照片之外,我們也直接帶連結✨讓你的雙11購物不盲目,讓你想買直接加入購物車,除了長知識也可以直接下單避寒神器🫱🏼文章結尾也會告訴大家在花錢的同時也能省錢、賺錢的小撇步,請記得留到最後!!
Thumbnail
最近開始轉涼了,各位鳥奴們是否會開始擔心小鳥會著涼呢?不用擔心,今天這篇直接帶你看需要的商品,而且今天除了照片之外,我們也直接帶連結✨讓你的雙11購物不盲目,讓你想買直接加入購物車,除了長知識也可以直接下單避寒神器🫱🏼文章結尾也會告訴大家在花錢的同時也能省錢、賺錢的小撇步,請記得留到最後!!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
這邊統整了過往喜特先生發布過的「資料驗證」系列文! 資料驗證是個「驗證資料是否符合某條件的機制」,我們通常會用它來避免別人輸入無效的值,減少錯誤的發生。你可以按照順序慢慢學習,把資料驗證這功能一次搞懂!
Thumbnail
這邊統整了過往喜特先生發布過的「資料驗證」系列文! 資料驗證是個「驗證資料是否符合某條件的機制」,我們通常會用它來避免別人輸入無效的值,減少錯誤的發生。你可以按照順序慢慢學習,把資料驗證這功能一次搞懂!
Thumbnail
本文探討了監督式學習、分群和相似度這幾個推薦系統算法,分別討論了它們的優點、缺點以及適用場景。這些算法在推薦系統中扮演著重要角色,並透過特徵選擇與預處理、相似度度量和鄰居的選擇等關鍵因素進行深入分析。文章最後提出在選擇推薦系統算法時應該考慮的因素,以及未來的研究方向。
Thumbnail
本文探討了監督式學習、分群和相似度這幾個推薦系統算法,分別討論了它們的優點、缺點以及適用場景。這些算法在推薦系統中扮演著重要角色,並透過特徵選擇與預處理、相似度度量和鄰居的選擇等關鍵因素進行深入分析。文章最後提出在選擇推薦系統算法時應該考慮的因素,以及未來的研究方向。
Thumbnail
在上一篇中,我們在模型探討隨機截距交叉延宕模式加入為預測或結果變量。而在Extension 2中,可以使用的分類變量進行Multiple group分析。這種方法常用在探討調節效果是否成立,本文將簡介其意義和語法。
Thumbnail
在上一篇中,我們在模型探討隨機截距交叉延宕模式加入為預測或結果變量。而在Extension 2中,可以使用的分類變量進行Multiple group分析。這種方法常用在探討調節效果是否成立,本文將簡介其意義和語法。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News