下圖中的有向無環圖
就是乙個貝葉斯網路。
圖中一共有5個隨機變數:
intelligence:表示乙個學生的智商
grade:某門課程考試的成績
sat:sat考試成績 l0
表示獲得一般的推薦信,l1
表示獲得很好的推薦信
所謂推理模式
(reasoning patterns),就是根據已知量
來推斷未知量
。根據推理思路不同,將推理模式分為下面幾種。l1
)。 已知:對學生george和課程econ101一無所知的情況下,p(
推斷:(1)若在已知的基礎上,我們還知道學生george不太聰明(i0
)。則可以推斷,george獲得乙份好推薦信的概率,會比0.5低一點,這裡猜測p(
l1|i
0)=0.39
; (2)若在已知和(1)的基礎上,我們還知道課程econ101比較簡單(d0
)。則可以推斷,george從教課程econ101的教授那裡獲得乙份好推薦信的概率,會比0.5高一點,,這裡猜測p(
l1|i
0,d0
)=0.51
;這類可以根據貝葉斯圖中「順流而下」的推斷,就叫因果推理
。所謂「順流而下」,就是順著有向圖的方向推理(已知量
和未知量
是因果關係,並且已知量
是未知量
的因)。從推論(1)中,可以看出已知量
(i)是未知量
(l)的因;從推論(1)中,可以看出已知量
(i,d)是未知量
(l)的因。
因果推理
是順著有向圖的方向推理,而證據推理
是逆著有向圖方向推理。已知量
和未知量
是因果關係,並且已知量
是未知量
的果。
例子1
要求:推斷課程是很難課程的概率。
已知:對其它資訊一無所知的前提下,我們知道課程econ101是一門很難課程的概率為p(
d1)=
0.4 。
推斷:若在已知的基礎上,我們還知道學生george在課程econ101上的考試成績很差(g3
(c) )。根據這個條件,我們可以推論這門課程確實要難一些。則課程econ101是一門很難課程的概率要比0.4高一點,這裡猜測p(
d1|g
3(c)
)=0.63
。例子2
要求:推斷學生智商很高的概率。
已知:對其它資訊一無所知的前提下,我們知道學生智商很高的概率為p(
i1)=
0.3 。
推斷:若在已知的基礎上,我們還知道學生george在課程econ101上的考試成績很差(g3
(c) )。根據這個條件,我們可以推論學生的智商不會太高,學生智商很高的概率要比0.3低,這裡猜測p(
i1|g
3(c)
)=0.08
注意在這兩個例子中,都是逆著有向圖的箭頭進行推理。
如下圖,推理關係超越了有向圖的某條「流」。
例子:推斷學生智商很高的概率。
已知:對其它資訊一無所知的前提下,我們知道學生智商很高的概率為p(
i1)=
0.3 。
推斷:(1)若在已知的基礎上,我們還知道學生george在課程econ101上的考試成績很差(g3
(c) )。根據這個條件,我們可以推論學生的智商不會太高,學生智商很高的概率要比0.3低,這裡猜測p(
i1|g
3(c)
)=0.08
。(這就是證據推理中例子2)
(2)若在(1)的基礎上,我們還知道課程econ101是一門比較難的課程(d1
),則學生考試成績為c又情有可原了,所以此時我們會猜測學生的智商也沒(1)中那麼低,這裡猜測p(
i1|g
3(c)
,d1)
=0.11
貝葉斯網路推理之loop cutset求解
為了不間斷的鍛鍊自己的書面表達能力,盡可能的多將自己看到的理解的東西寫出來。最近在看貝葉斯推理中loop cutset的相關文獻,今天說一下其精確求解演算法。loop cutset是乙個np問題,自問題一開始提出,學者們就主要在啟發式演算法上面做工作,典型演算法就是貪心演算法,1990年stillm...
貝葉斯 01 初識貝葉斯
分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 分割線 最先知道貝葉斯公式還是四年前的概率論和數理統計課上,時間也很久了,具體內容早已經忘記,不過畢竟曾經學過,重新看過還是得心應手的。大概用兩三篇的內容來介紹一下貝葉斯,以及機器學習中很重要的一部分 樸...
貝葉斯 02 理解貝葉斯
首先簡略回顧一下,全概率和貝葉斯。其實這兩者是密不可分的,互相之間是乙個順序問題,全概率反過去就是貝葉斯,這類問題只需要區分清楚是知道原因求結果,還是知道結果尋原因就可以了。全概率公式是計算由諸多原因而導致的某件複雜事情發生的概率,而貝葉斯就是在這件複雜的事情已經發生的前提下,去尋找諸多原因中,某一...