上一章節中,我們介紹了混合線性模型中的模型假定,這一章節,用乙個動物育種的示例,介紹固定因子,隨機因子以及相關矩陣的推導,明確什麼是g矩陣,什麼是r矩陣,以及他們和方差組分的關係。直和和直積也是重要的概念,特別是多個隨機因子以及隨機因子有互作時,經常用到,這裡用r語言程式設計的形式介紹直和與直積的計算方法。
混合線性模型y=x
b+zu
+ey = xb + zu + e
y=xb+z
u+e[ue
]∼n(
[00]
,[g(
σg)0
0r(σ
γ)])
\begin u\\e \end \sim n (\begin0\\0\end, \begin g(\sigma_g) &0\\ 0 &r(\sigma_)\end)
[ue]∼
n([0
0],
[g(σ
g)0
0r(
σγ)
])
舉個栗子:
比如這裡不同場的一些個公牛(sire)的體重(y),公牛之間是有親緣關係的,如果要分析這個資料,公牛作為隨機因子,模型為:
w ei
ght=
mu+c
hang
+sir
e+eweight = mu + chang + sire + e
weight
=mu+
chan
g+si
re+e
假定:sir
e∼n(
0,σu
2i)sire \sim n(0,\sigma_^2i)
sire∼n
(0,σ
u2i)e∼
n(0,
σe2i
)e \sim n(0,\sigma_^2i)
e∼n(0,
σe2
i)那麼:g=σ
g2∗i
g = \sigma_g^2*i
g=σg2
∗ir =σ
e2∗i
r = \sigma_e^2*i
r=σe2
∗i如果,公牛之間是由親緣關係a的,那麼:
g =σ
g2∗a
g = \sigma_g^2*a
g=σg2
∗ay =x
b+zu
+ey = xb + zu + e
y=xb+z
u+e這裡b為固定因子的效應值,加入固定因子有多個,場,年,季,性別等等,那麼b 可以分解為:[b1, b2, b3,…]
x為固定因子對應的矩陣,x也可以分解為:[x1,x2,x3…]
同樣的道理,隨機因子和隨機因子的矩陣,也可以剖分為類似的形式,比如動物模型中,除了加性效應,還可以有母體效應,永久環境效應,窩別效應作為隨機因子。
3.1 概念解釋
直和(direct sum)和直積(direct product)是混合線性模型中經常用到的概念,下面用具體例子介紹直積和直和是如何通過r語言計算的。
比如下圖中,d為22的矩陣,f為22的矩陣,那麼直和就是講d和f作為對角線,非對角線為0,構成乙個44的矩陣。直積d的每個元素分別和f矩陣相乘,得到44的矩陣。
3.2 r語言實現直和和直積
函式構建
這裡直積我們用r的預設函式kronecker,為了方便操作,我們賦予它另乙個名稱:direct_product。
對於直和,我們構建了乙個函式,可以將兩個矩陣變成直和的結果。
一般混合模型中的假定都是sigma引數化的:
[ ue
]∼n(
[00]
,[g(
σg)0
0r(σ
γ)])
\begin u\\e \end \sim n (\begin0\\0\end, \begin g(\sigma_g) &0\\ 0 &r(\sigma_)\end)
[ue]∼
n([0
0],
[g(σ
g)0
0r(
σγ)
])這樣隨機效應的方差組分為sigma_g^2, 殘差的方差組分為sigma_e^2.但是也有另一種表示方法,即gamma引數化。
一般,我們假定:
γ g=
σg2σ
e2\gamma_g = \frac
γg=σe
2σg
2
這樣做的好處是方便指定初始值,只需要指定比例(比如根據遺傳力推導)即可,很方便,這樣,y的方差就變成了:
v ar
(y)=
σe2(
zgγg
z′+r
γe)var(y) = \sigma_e^2(zg_z' + r_)
var(y)
=σe2
(zg
γg
z′+r
γe
)
張勤. 動物遺傳育種中的計算方法[m]. 科學出版社, 2007.吳密霞. 線性混合效應模型引論[m]. 科學出版社, 2013.
廣義線性混合模型
說下自己的理解,權當拋磚引玉。首先,題主問題有誤,glm一般是指generalized linear model,也就是廣義線性模型 而非general linear model,也就是一般線性模型 而glmm generalized linear mixed model 是廣義線性混合模型。廣義線...
混合高斯模型 學習筆記
極大似然估計與em演算法 詳解em演算法與混合高斯模型 gaussian mixture model,gmm 林立民愛洗澡 csdn部落格 gmm 高斯混合模型 以及簡單實現 zjm750617105的專欄 csdn部落格 在乙個gmm裡,bic bayesian information crite...
回歸的線性模型(2)
其實越往後面越發現自己之前認識的片面性,但是對我這種記性不好的人來說還是要寫一點東西總結一下,以便之後翻查,審視自己當初的思路有沒有錯誤。不當之處還請各位及時批評。前文已經看到,採用最大似然方法對目標變數的分布進行點估計時,容易產生過擬合現象,通過引入分布引數的先驗概率來引入正則化項,來限制模型複雜...