假設y是正態分佈,y的條件均值是β的線性函式
假定yi來自指數分布族,常見的正態分佈、二項分布、泊松分布、伽馬分布都是指數分布族
指數分布族的概率密度:
注:泊松分布和二項分布的φ=1
為連線函式,一對一連續可導函式
,由於連線函式為一對一,因此
沒有解析解,主要演算法有牛頓迭代和fisher得分法,具體可參考鏈結
普通線性模型的目標函式
,y同方差
廣義線性模型的目標函式
,g(y)不是同方差的
工作因變數(泰勒展開):
迭代權數:
第4次就迭代穩定了
估計量的期望和方差:
---delta方法
連線函式:
均值函式:
邊際效應:
logit模型的右側是對數優勢比odds,左側是線性模型;
logistic模型的右側是概率,左側是非線性模型。
連線函式:
均值函式:
邊際效應:
原因:總體異質性
二項分布的總體引數不一致
待補充,俺還沒理解
(multinomial logit model,mnl)
連線函式:
#案例:響應變數為工作滿意情況4類,自變數為收入(暫不考慮滿意度的順序)
library(vcd)
datcolnames(dat)
rownames(dat)25k')
margin.table(dat,1) #邊際值
margin.table(dat,2)
fisher.test(dat) #fisher精確檢驗
#記收入為3,10,20,35
income
jobsat
jobsat
jobsat
library(vgam)
jobsat.fit1
family=multinomial,data=jobsat)
coef(jobsat.fit1)
summary(jobsat.fit1)
#似然比檢驗
jobsat.fit2
family=multinomial,data=jobsat) #飽和模型
df.residual(jobsat.fit1) #6
df.residual(jobsat.fit2) #9
pchisq(deviance(jobsat.fit2)-deviance(jobsat.fit1),9-6,lower.tail = false) #p=0.032說明估計模型和飽和模型間存在顯著差異
收入每增加1k,優勢比增加/縮減為原來的e^β倍
連線函式:
連線函式:
記個體i為第j類的概率為:
個體i落在前j類的累積概率為:
累積連線函式:
平行性假定:
說明:收入每增加1k,非常滿意與(非常不滿意、不滿意、一般)的優勢比縮減為原來的e^-0.04486=0.96倍;一般與(非常不滿意、不滿意)的優勢比縮減為原來odds的0.96倍;不滿意與非常不滿意的優勢比縮減為原來odds的0.96倍.
如果將順序顛倒過來,則非常不滿意與(不滿意、一般、非常滿意)的優勢比增加為原來的1/0.96=1.046倍;同理。
精力和理解能力有限,還有巢狀logit等模型沒有介紹~
下次學習了再更新。。。
logit回歸模型假設 logistic回歸模型
標籤 一 模型簡介 線性回歸預設因變數為連續變數,而實際分析中,有時候會遇到因變數為分類變數的情況,例如陰性陽性 性別 血型等。此時如果還使用前面介紹的線性回歸模型進行擬合的話,會出現問題,以二分類變數為例,因變數只能取0或1,但是擬合出的結果卻無法保證只有這兩個值。那麼使用概率的概念來進行擬合是否...
廣義線性模型和線性回歸
首先術語廣義線性模型 glm 通常是指給定連續和 或分類 變數的連續響應變數的常規線性回歸模型。它包括多元線性回歸,以及anova和ancova 僅具有固定效果 形式為 yi n x 2 其中xi包含已知的協變數,包含要估計的係數。這些模型使用最小二乘和加權最小二乘擬合。術語廣義線性模型 glim或...
從線性模型到廣義線性模型 一) 模型假設篇
在統計學裡,對特定變數之間的關係進行建模 分析最常用的手段之一就是回歸分析。回歸分析的輸出變數通常記做 y 也稱為因變數 dependent 響應變數 response 被解釋變數 explained 被 變數 predicted 從屬變數 regressand 輸入變數通常記做x1 xp 也稱為自...