《AI-900》機器學習2:迴歸 Regression

更新於 發佈於 閱讀時間約 3 分鐘
raw-image

本文章Microsoft 對應網頁:中文英文

迴歸模型就是用來預測數值的工具,它會依據訓練資料中已知的特徵已知的標籤(答案)來學習。訓練過程其實是一種反覆試驗:先選一個演算法來建立模型,檢查它的預測表現,再調整方法或參數,重新訓練。這樣不斷重複,直到模型的準確度夠好為止(其實任何監督式機器學習模型皆然)。

raw-image

訓練流程

  1. 隨機分割(Split)資料集(dataset),大部分資料作為訓練資料集,保留部分資料作為未來評估模型準確性的測試資料集
  2. 使用訓練資料集讓演算法推算,常見的方式:線性迴歸linear regression。
  3. 使用測試資料集來測試模型,比較實際值y和預測值ŷ
  4. 計算預測準確度。

評估迴歸模型

根據實際值y預測值ŷ的差異,可以計算以下常用的評估方式。

平均絕對誤差 (Mean Absolute Error, MAE)

  • 平均|ŷ-y|
  • 不考量正負差異(取絕對值)
  • 平均考量所有誤差

平均平方誤差 (Mean Squared Error, MSE)

  • 平均(ŷ-y)2
  • 計算時,放大較大的誤差(平方)。
    因為實際使用模型時,誤差小(即使誤差次數多)的模型,理論上會比誤差很大(即使誤差次數少)的模型好用。

均方根誤差 (Root Mean Squared Error, RMSE) (√MSE)

  • 與MSE相似,但MSE將數字平方,所以產生的量不再代表y的數字意義。
  • 將MSE開根號,讓數字接近y的數字水準。
  • 例如,用迴歸模型預測冰淇淋銷售數,模型MSE是6,RMSE是2.45,亦及誤差2.45支冰淇淋。

決定係數、判定係數 (Coefficient of determination, R2)

  • R2 = 1- ∑(y-ŷ)2 ÷ ∑(y-ȳ) (1 - 實際值和預測值的差距/實際值和平均值的差距)
  • 介於 0 和 1 之間的值,值越接近 1,模型就越符合驗證資料。
    R2=1:模型完美預測所有資料點
    R2=0:模型和使用平均值來預測一樣爛
    R2<0:模型比隨便猜(例如用平均值)還糟糕
  • 驗證結果中可以由模型解釋的差異比例之計量

迭代訓練Iterative training

一般訓練模型時,會使用反覆迭代的方式來訓練、評估模型,反覆嘗試調整。

  1. 特徵選擇與準備:選擇要納入模型的特徵,以及對這些特徵進行的計算與處理,以協助模型達到更佳的擬合效果。
  2. 演算法選擇:除了線性迴歸,還有許多其他的迴歸演算法可供選擇。
  3. 演算法參數Algorithm parameters:用來控制演算法行為的數值設定,這些參數更準確地稱為超參數(hyperparameters),以區別於模型中的 x 和 y 變數參數。

AI-900系列文章目錄:
《AI-900》證照考試準備心得與筆記分享 - 系列文章

留言
avatar-img
留言分享你的想法!
avatar-img
快半拍成長日誌
36會員
98內容數
快半拍是小小的進步,每天前進一點點,發現微小進步中的光芒。
快半拍成長日誌的其他內容
2025/09/06
AI-900系列 X 筆記整理 X 心智圖 機器學習(Machine Learning),基本概念就是用過去觀察的資料,預測未知的結果或值。例如:冰淇淋店結合歷史銷售數據+天氣紀錄,根據天氣預測,推測未來銷售額。 什麼是監督式學習與非監督式學習?分類和分群怎麼辨別?
Thumbnail
2025/09/06
AI-900系列 X 筆記整理 X 心智圖 機器學習(Machine Learning),基本概念就是用過去觀察的資料,預測未知的結果或值。例如:冰淇淋店結合歷史銷售數據+天氣紀錄,根據天氣預測,推測未來銷售額。 什麼是監督式學習與非監督式學習?分類和分群怎麼辨別?
Thumbnail
2025/09/06
學習筆記 × 心智圖 × 考試心得 本系列文章整理 Microsoft Azure AI Fundamentals (AI-900) 中英文官方教材,解決官方機器翻譯不精確問題,並附上心智圖與操作截圖,方便掌握重點與應試。 文中附上:考試資源、2025年考試心得
Thumbnail
2025/09/06
學習筆記 × 心智圖 × 考試心得 本系列文章整理 Microsoft Azure AI Fundamentals (AI-900) 中英文官方教材,解決官方機器翻譯不精確問題,並附上心智圖與操作截圖,方便掌握重點與應試。 文中附上:考試資源、2025年考試心得
Thumbnail
2025/09/06
新房間《快半拍 AI 實驗室》開張! 首發系列文章Microsoft Azure AI Fundamentals (AI-900) 證照的學習筆記~ 敬請期待後續分享~
Thumbnail
2025/09/06
新房間《快半拍 AI 實驗室》開張! 首發系列文章Microsoft Azure AI Fundamentals (AI-900) 證照的學習筆記~ 敬請期待後續分享~
Thumbnail
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
特徵工程是機器學習中的核心技術,通過將原始數據轉換為有意義的特徵,以提升模型的準確性和穩定性。常見的特徵工程方法包括異常值檢測、特徵轉換、特徵縮放、特徵表示、特徵選擇和特徵提取。本文將深入探討這些方法的適用情況及具體實施流程,以幫助讀者有效利用特徵工程來優化機器學習模型表現。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
在當今快速變化的數位時代,企業面臨著前所未有的數據處理需求。為了應對這些挑戰,企業紛紛建立自己的大型語言模型(LLM),利用大量數據進行訓練,讓模型能夠理解並生成自然語言,從而實現人機協作,優化業務流程並提升客戶體驗。
Thumbnail
在當今快速變化的數位時代,企業面臨著前所未有的數據處理需求。為了應對這些挑戰,企業紛紛建立自己的大型語言模型(LLM),利用大量數據進行訓練,讓模型能夠理解並生成自然語言,從而實現人機協作,優化業務流程並提升客戶體驗。
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News