線性回歸的基本假設

更新 發佈閱讀 2 分鐘

線性回歸的基本假設是指在建立線性回歸模型時對數據和誤差項提出的前提條件,這些假設保證了模型的合理性和統計推論的有效性。主要有以下幾個核心假設:

1. 線性關係

應變數(Y)和自變數(X)之間存在線性關係,即模型形式可表達為

2. 誤差項期望為零

誤差項的期望值為零,表示誤差沒有系統性的偏差

3. 誤差項同方差性(均一變異數)

誤差項的方差在所有X值上保持不變,不隨自變數變化而變化(無異方差)

4. 誤差項獨立性

不同樣本的誤差項之間彼此獨立,不存在自相關。

5. 誤差項服從正態分佈

誤差項服從均值為零、方差為的正態分布,尤其在小樣本時用於統計檢驗和推論。

6. 自變數無多重共線性

自變數之間不存在高度線性關係,即變數不完全線性相關,避免數據冗餘和不穩定係數估計。

7. 自變數是非隨機固定值

在經典計量模型中假定自變數為固定的非隨機量。

這些假設是經典線性回歸模型(OLS)的基石,用來保證估計量是無偏且有效的。若違反上述假設,模型推論與預測可能不準確,需要採用其他方法進行調整或修正。

簡而言之,線性回歸的基本假設包括線性關係、誤差零均值、同方差、獨立正態分布、無多重共線性及自變數非隨機等條件,是模型合理性和統計推斷的基礎。


留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
19會員
495內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/09/09
對數轉換(Logarithmic Transformation)是將數據中的每個值轉換為其對數值的過程,常用於數據分析和機器學習中,以改善數據分佈、降低偏態,並使數據更接近常態分布。 對數轉換的主要目的 減少偏態(Skewness):將右偏分佈的數據拉近對稱,有利於統計模型的假設; 縮小數據範
2025/09/09
對數轉換(Logarithmic Transformation)是將數據中的每個值轉換為其對數值的過程,常用於數據分析和機器學習中,以改善數據分佈、降低偏態,並使數據更接近常態分布。 對數轉換的主要目的 減少偏態(Skewness):將右偏分佈的數據拉近對稱,有利於統計模型的假設; 縮小數據範
2025/09/09
缺失值模式是指數據中缺失值的產生和存在的機制,理解不同模式有助於選擇合適的缺失值處理方法。數據科學和機器學習中,缺失值主要分為三種類型: 1. 完全隨機缺失(MCAR, Missing Completely At Random) 缺失值的產生完全隨機,與數據中任何其他變量的值無關。 換句話說,
2025/09/09
缺失值模式是指數據中缺失值的產生和存在的機制,理解不同模式有助於選擇合適的缺失值處理方法。數據科學和機器學習中,缺失值主要分為三種類型: 1. 完全隨機缺失(MCAR, Missing Completely At Random) 缺失值的產生完全隨機,與數據中任何其他變量的值無關。 換句話說,
2025/09/09
交叉驗證(Cross-Validation)是一種機器學習中常用的模型評估和泛化能力測試方法,通過多次將數據分割成訓練集和驗證集,檢測模型在不同資料上的表現,以避免過擬合和選擇偏差,提高模型的穩健性。 交叉驗證的基本原理 將數據集分成若干個子集(folds); 每次用其中一個子集作為驗證集,其
2025/09/09
交叉驗證(Cross-Validation)是一種機器學習中常用的模型評估和泛化能力測試方法,通過多次將數據分割成訓練集和驗證集,檢測模型在不同資料上的表現,以避免過擬合和選擇偏差,提高模型的穩健性。 交叉驗證的基本原理 將數據集分成若干個子集(folds); 每次用其中一個子集作為驗證集,其
看更多
你可能也想看
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
  前面說明了所謂「假設檢定」的邏輯,也就是推論統計的基礎。但前面都還只是概念的階段,目前沒有真正進行任何的操作──還沒有提到推論統計的技術。   這篇其實有點像是一個過渡,是將前面的概念銜接到下一篇t分數之間的過程,也可以說是稍微解釋一下t檢定怎麼發展出來的。
Thumbnail
  前面說明了所謂「假設檢定」的邏輯,也就是推論統計的基礎。但前面都還只是概念的階段,目前沒有真正進行任何的操作──還沒有提到推論統計的技術。   這篇其實有點像是一個過渡,是將前面的概念銜接到下一篇t分數之間的過程,也可以說是稍微解釋一下t檢定怎麼發展出來的。
Thumbnail
選舉民調是預測選舉結果的重要工具。然而,如果我們不了解樣本和母體的概念,就很容易被民調結果誤導。 在本文中,我們將介紹樣本和母體的概念,以及它們對民調結果的影響。我們還將提供一些在閱讀民調報告時的注意事項。
Thumbnail
選舉民調是預測選舉結果的重要工具。然而,如果我們不了解樣本和母體的概念,就很容易被民調結果誤導。 在本文中,我們將介紹樣本和母體的概念,以及它們對民調結果的影響。我們還將提供一些在閱讀民調報告時的注意事項。
Thumbnail
接續上一篇,繼續來講如何從常態分布的機率進行假設檢定,進而推論母體的平均數吧! 這篇會提到否證的邏輯、魔法數字0.5以及統計檢定到底是什麼這三個主題。
Thumbnail
接續上一篇,繼續來講如何從常態分布的機率進行假設檢定,進而推論母體的平均數吧! 這篇會提到否證的邏輯、魔法數字0.5以及統計檢定到底是什麼這三個主題。
Thumbnail
 當開啟試算表(EXCEL等)的累加(SUM)及離散度,標準差(STDEV)的運算功能後,逐一統計的累進報票式選票統計表就可以退休了,而且全國一萬七千多所的數據不待一所所列出,就可以用較小選區(例如嘉義市198所,宜蘭縣431所等)的統計過程證明統計結果都是正確的,尤其是將計算式列出(隱藏前面的
Thumbnail
 當開啟試算表(EXCEL等)的累加(SUM)及離散度,標準差(STDEV)的運算功能後,逐一統計的累進報票式選票統計表就可以退休了,而且全國一萬七千多所的數據不待一所所列出,就可以用較小選區(例如嘉義市198所,宜蘭縣431所等)的統計過程證明統計結果都是正確的,尤其是將計算式列出(隱藏前面的
Thumbnail
  在上一篇文章解釋了常態分布怎麼幫助我們計算事件發生的機率,而更之前也看過了抽樣分布是如何形成常態分布的過程,現在就要利用這兩件事情來慢慢帶出什麼是統計學中的「假設檢定」了。
Thumbnail
  在上一篇文章解釋了常態分布怎麼幫助我們計算事件發生的機率,而更之前也看過了抽樣分布是如何形成常態分布的過程,現在就要利用這兩件事情來慢慢帶出什麼是統計學中的「假設檢定」了。
Thumbnail
依照中央極限定理,我們可以得知(獨立且隨機樣本的)抽樣分布最終會形成常態分佈,那麼這件事情到底為什麼很重要呢? 這篇文章就來介紹一些常態分布的基本特性,以及最重要的──常態分布怎麼幫助我們計算機率。
Thumbnail
依照中央極限定理,我們可以得知(獨立且隨機樣本的)抽樣分布最終會形成常態分佈,那麼這件事情到底為什麼很重要呢? 這篇文章就來介紹一些常態分布的基本特性,以及最重要的──常態分布怎麼幫助我們計算機率。
Thumbnail
在前面的文章裡, 我們談了很多機率的概念, 今天我們來聊聊統計學裡最基礎的研究方法: 迴歸分析。
Thumbnail
在前面的文章裡, 我們談了很多機率的概念, 今天我們來聊聊統計學裡最基礎的研究方法: 迴歸分析。
Thumbnail
本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從最簡單的一個Level 1固定自變項模型開始,到複雜的兩個Level 1和1個Level 2固定自變項模型,相信看完後,讀者就會了解雙層次之隨機截距模型概念和操作。
Thumbnail
本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從最簡單的一個Level 1固定自變項模型開始,到複雜的兩個Level 1和1個Level 2固定自變項模型,相信看完後,讀者就會了解雙層次之隨機截距模型概念和操作。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News