付費限定

使用R語言跑多層次模型:計算效果量

更新於 發佈於 閱讀時間約 8 分鐘

多階層模型的效果量,有多種計算方法(LaHuis et al., 2014)。主要為解釋變異量方法。解釋變異量方法是指多階層模型中,由解釋變數所解釋的變異量比例。

R2 (Approximate)

是第一種要介紹的HLM的效果量是基於添加預測變量時減少殘差變異量的程度。

通過首先估計空模型以確定殘差變異量,接下來,將預測變量添加到模型中,將加入預測變項得比較模型與空模型中的殘差變異量進行比較。此方法不適用於隨機斜率模型。此方法聚焦於層次1的解釋變異量。 R2 (Approximate)如下圖計算:

(空模型層次1殘差變異量-加入預測變項比較模型的層次1殘差變異量)/空模型層次1殘差變異量
空模型=Null, 比較模型 = Full

空模型=Null, 比較模型 = Full

我們不會介紹層次2的Approximate R2,因為過去一項模擬研究認為Approximate R2不是有效的估計值,因此不推薦使用該指標(LaHuis et al., 2014)。Approximate R2一個主要優點是提供了直觀簡單方法,可以用手算就可以。但是,它們可能會產生負值。 也就是說,添加預測變量實際上可能會減少原本可以解釋的變異量,這種情況可能發生再添加層次2預測變數。因為變異量不可能有負值,這時就要把負值改成0。

R2 (S&B)

Snijders 和 Bosker (1994) 提供了替代方法來解決這個負向變異量估計的問題。它反映了整體模型解釋變異量。但實務上,它還是有可能會有負值產生(LaHuis et al., 2014)

1-(加入預測變項模型的層次1殘差變異量+加入預測變項模型的層次2殘差變異量)/(空模型層次1殘差變異量+空模型層次2殘差變異量)
空模型=Null, 比較模型 = Full

空模型=Null, 比較模型 = Full

模擬研究的結果推薦使用此方法整體模型解釋變異量,並支持 Snijder 和 Bosker (1994) 建議,使用隨機截距模型而非隨機斜率模型計算解釋變異量方法(LaHuis et al., 2014)。

R語言分析使用威力強大的misty。他可以幫我們計算R2 (S&B)。先從lmer建立一個多層次比較模型,再使用multilevel.r2:

library(lme4)
library(misty)
Full_Model <- lmer(依變項 ~ 自變項 + (1 | 層次2的ID), data = 資料檔名稱)
multilevel.r2(Full_Model , print = c("SB"))


R2 (R&S)

為了想計算隨機斜率模型效果量,並不用分別取得兩個模型的殘差變異量。Rights & Sterba (2019) 發展出R2 (R&S)。該效果量資訊豐富且視覺化明瞭,是目前非常受歡迎的多層次模型效果量。可以用REML or FEML 。若要取的所有的R2 (R&S) ,需要將層次1的變項和交互作用都 cluster-mean centered。 ​

Rights & Sterba (2019)經過公式推倒,可以將R2分成5個變異量來源,加總為1:

  • f1 = 固定斜率的層次1預測變項能解釋的變異量 = fixed, within =fixed slopes (within)
  • f2 = 固定斜率的層次2預測變項能解釋的變異量 = fixed, between =fixed slopes(between)
  • v = 隨機斜率的層次1預測變項能解釋的變異量 = slope variation = slope variation (within)
  • m = 隨機截距效果能解釋的變異量 = mean variation = intercept variation (between)
  • σ2 = 層次1的殘差,未能解釋的變異量 = sigma2 = residual (within)


我自己有做小測試當作參考,測試結果如下:

  • 填加固定斜率變項*固定斜率變項交互作用會增加f1
  • 填加隨機斜率變項*固定斜率變項交互作用全部都會影響
  • 填加隨機斜率變項*隨機斜率變項交互作用導致模型不收斂...

  1. 總共變異量(total)= 1 = f1 +f2 + v+ m + σ2
  2. 層次1變異量(within) = 1 =f1 + ​v + σ2
  3. 層次2變異量 (betweem)= 1 =f2 + ​m

圖示可以看下圖左邊(白色是σ2),下圖右邊則是各種R2 的組合,R t2 (fvm)  就是總解釋變異量,R w2 (f1v) 就是層次1變異量

raw-image


R語言分析使用威力強大的r2mlm。r2mlm要求資料檔只有層次的ID可以是factor,其他所有變項都是numeric,就算你沒有要用來分析

資料檔$schoolid <- as.factor(資料檔$schoolid)     ## 改成 factor  
class(資料檔$schoolid) ## 檢驗是不是真的是 factor

資料檔$變項 <- as.numeric(hsbfull$變項) ## 改成 numeric


接下來就可以計算R2 ((R&S)。先從lmer建立一個多層次比較模型,再使用r2mlm:

以行動支持創作者!付費即可解鎖
本篇內容共 3474 字、0 則留言,僅發佈於統計分析 × 學術生涯你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
留言分享你的想法!
avatar-img
教育心理博士的筆記本
248會員
144內容數
文章內容以圖像式和步驟化方式,教您如何在各種統計軟體中(例如:SPSS、R和Mplus),執行多種統計方法。此外,我還會分享一些學術和科技新知,幫助您在學術之路上走得更順利。
2025/04/15
Random Coefficients Model一種包含隨機截距和隨機斜率的多層線性模型 。它用於建模具有層次結構的數據。本文將介紹該模型之公式、R語言分析、視覺化。
Thumbnail
2025/04/15
Random Coefficients Model一種包含隨機截距和隨機斜率的多層線性模型 。它用於建模具有層次結構的數據。本文將介紹該模型之公式、R語言分析、視覺化。
Thumbnail
2025/03/28
多層次模型中的 Random intercepts model with level-1 predictor 是層級 1 預測變量預測層級 1 結果變量的模型。本文將介紹該模型的一般方程式,並實際用R語言進行分析。最後介紹ML和REML估計法選擇。
Thumbnail
2025/03/28
多層次模型中的 Random intercepts model with level-1 predictor 是層級 1 預測變量預測層級 1 結果變量的模型。本文將介紹該模型的一般方程式,並實際用R語言進行分析。最後介紹ML和REML估計法選擇。
Thumbnail
2025/03/14
多層次模型中的 Random intercepts model with level-2 predictor 是一種層級 2 預測變量預測層級 1 結果變量的模型。本文將介紹該模型的一般方程式,並實際用R語言進行分析並視覺化。
Thumbnail
2025/03/14
多層次模型中的 Random intercepts model with level-2 predictor 是一種層級 2 預測變量預測層級 1 結果變量的模型。本文將介紹該模型的一般方程式,並實際用R語言進行分析並視覺化。
Thumbnail
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
用R語言進行HLM分析第一章將介紹ICC係數定義,並實際示範如何使用R語言計算ICC,並解釋其含意。
Thumbnail
用R語言進行HLM分析第一章將介紹ICC係數定義,並實際示範如何使用R語言計算ICC,並解釋其含意。
Thumbnail
當採用MLM, MLR, or WLSM...等等估計法時,Mplus 會警告不能無法像ML一樣兩個巢套模型直接相減取得正確的Chi-Square和顯著性。所以我們需要用網站自動計算器或額外語法幫我們計算Chi-Square的差異,以下分別介紹不同估計法要用的方法:
Thumbnail
當採用MLM, MLR, or WLSM...等等估計法時,Mplus 會警告不能無法像ML一樣兩個巢套模型直接相減取得正確的Chi-Square和顯著性。所以我們需要用網站自動計算器或額外語法幫我們計算Chi-Square的差異,以下分別介紹不同估計法要用的方法:
Thumbnail
接續第三章內容,有時候多層次資料不只一個層次,可能具有多種層次,例如:學生屬於某個學校,而學校又屬於某個縣市。本章主要說明三層次之隨機截距模型的公式和SPSS操作,我們先從公式開始,然後在教學SPSS視窗和語法操作,相信看完後,讀者就會了解三層次之隨機截距斜率模型概念和操作。
Thumbnail
接續第三章內容,有時候多層次資料不只一個層次,可能具有多種層次,例如:學生屬於某個學校,而學校又屬於某個縣市。本章主要說明三層次之隨機截距模型的公式和SPSS操作,我們先從公式開始,然後在教學SPSS視窗和語法操作,相信看完後,讀者就會了解三層次之隨機截距斜率模型概念和操作。
Thumbnail
接續第二章內容,本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從公式開始,然後在教學SPSS視窗和語法操作,相信看完後,讀者就會了解雙層次之隨機截距斜率模型概念和操作。
Thumbnail
接續第二章內容,本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從公式開始,然後在教學SPSS視窗和語法操作,相信看完後,讀者就會了解雙層次之隨機截距斜率模型概念和操作。
Thumbnail
本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從最簡單的一個Level 1固定自變項模型開始,到複雜的兩個Level 1和1個Level 2固定自變項模型,相信看完後,讀者就會了解雙層次之隨機截距模型概念和操作。
Thumbnail
本章主要說明雙層次之隨機截距模型的公式和SPSS操作,我們先從最簡單的一個Level 1固定自變項模型開始,到複雜的兩個Level 1和1個Level 2固定自變項模型,相信看完後,讀者就會了解雙層次之隨機截距模型概念和操作。
Thumbnail
在使用Mplus進行統計分析時,我們需要設定各種估計方法,但很多同學可能不知道各種估計方法的適用時機,本文將簡介各種常見的估計法。
Thumbnail
在使用Mplus進行統計分析時,我們需要設定各種估計方法,但很多同學可能不知道各種估計方法的適用時機,本文將簡介各種常見的估計法。
Thumbnail
多元線性迴歸分析(Multiple regression analysis)是一種統計學方法,用於探索多個解釋變量對一個目標變量的影響。它是建立在線性迴歸分析的基礎上的,多元迴歸分析用於探討多個預測變數及一個依變數之間的關係,並且每個變項都是連續變項。本文將介紹多元迴歸分析概念。
Thumbnail
多元線性迴歸分析(Multiple regression analysis)是一種統計學方法,用於探索多個解釋變量對一個目標變量的影響。它是建立在線性迴歸分析的基礎上的,多元迴歸分析用於探討多個預測變數及一個依變數之間的關係,並且每個變項都是連續變項。本文將介紹多元迴歸分析概念。
Thumbnail
潛在類別模式(latent class modeling, LCM)和潛在剖面分析(Latent Profile Analysis, LPA)是探討潛在類別變項的統計技術。兩者與因素分析最大的不同在於潛在變項(因素)的形式。本文將介紹潛在類別/剖面/混合分析操作1:找出最佳組數
Thumbnail
潛在類別模式(latent class modeling, LCM)和潛在剖面分析(Latent Profile Analysis, LPA)是探討潛在類別變項的統計技術。兩者與因素分析最大的不同在於潛在變項(因素)的形式。本文將介紹潛在類別/剖面/混合分析操作1:找出最佳組數
Thumbnail
如同跨組比較一樣,跨時間時也需要考量縱向測量衡等性,在分析縱向數據時考慮 測量衡等性 很重要,因為不具有縱向測量衡等性的量表,對結果的有效性和正確性有所影響。縱向衡等性和多群組衡等性的分析策略相似,但在參數設定有些差異,本文將簡介其概念和和Mplus操作。
Thumbnail
如同跨組比較一樣,跨時間時也需要考量縱向測量衡等性,在分析縱向數據時考慮 測量衡等性 很重要,因為不具有縱向測量衡等性的量表,對結果的有效性和正確性有所影響。縱向衡等性和多群組衡等性的分析策略相似,但在參數設定有些差異,本文將簡介其概念和和Mplus操作。
Thumbnail
本文章收集與評論三個體現「精準度-可解釋性權衡 (Accuracy-Interpretability Tradeoff)」的例子。 在詐欺偵測的數據集中,本來預期要觀察到的權衡,似乎並沒有出現。這令人非常好奇這個權衡的故事,源頭是哪邊。 本文章收錄三個,對於此權衡的認知升級。
Thumbnail
本文章收集與評論三個體現「精準度-可解釋性權衡 (Accuracy-Interpretability Tradeoff)」的例子。 在詐欺偵測的數據集中,本來預期要觀察到的權衡,似乎並沒有出現。這令人非常好奇這個權衡的故事,源頭是哪邊。 本文章收錄三個,對於此權衡的認知升級。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News