如果乙個過程的「將來」僅依賴「現在」而不依賴「過去」,即x(
t+1)
=f(x
(t))
,則此過程具有馬爾可夫性,或稱此過程為馬爾可夫過程。時間和狀態都離散的馬爾科夫過程稱為馬爾科夫鏈,記作
。其中n表示狀態的種類數量。
記狀態空間:i=
。條件概率:pi
,j(m
,m+n
)=p 。pi
,j即狀態轉移概率矩陣的第i行第j列,表示在時刻m處於狀態ai
條件下,在時刻m+n轉移到狀態aj
的轉移概率。pi
,j(m
,m+n
) 與m無關時,稱馬爾科夫鏈為齊次馬爾科夫鏈。從而有:σn
j=1p
i,j(
m,m+
n)=1
,i∈[
1,n]
a=(aij)
aij=p(q
t=sj
|qt−
1=si
),1≤
i,j≤
n ai
j≥0,
σnj=
1aij
=1在馬爾科夫模型中,每乙個狀態代表乙個可觀察的事件;
在隱馬爾科夫模型中,狀態是不確定或不可見的,只有通過觀測序列的隨機過程才能表現出來。觀察到的事件與狀態並不是一一對應,而是通過一組概率分布相聯絡。
hmm是乙個雙重隨機過程,兩個組成部分:
馬爾可夫鏈:描述狀態的轉移,用轉移概率描述。
一般隨機過程:描述狀態與觀察序列間的關係,用觀察值概率描述。
我們都知道,韋小寶的骰子有兩個(兩種狀態),一種是正常的骰子,另乙個是老千(六個面的分布不均勻)。現在韋小寶擲骰子100次,我們就能得到長為100的數字序列,每個數字都是1到6之間,但是我們不知道這個序列中中哪些是正常的骰子擲出來的,哪些是老千擲出來的。
基本要素——五元組:λ=
(π,a
,b,m
,n) 簡記為:λ=
(π,a
,b) 。 n:
狀態數目
→ 骰子的種類數(2
) m:
可能的觀察值數目
→ 骰子擲出來的可能取值數目(6
) a:
與時間無關的狀態轉移概率矩陣
→ 選擇某個骰子的情況下,選擇其他骰子的概率 b:
給定狀態下,觀察值概率分布
→ 每個骰子擲出來的取值分布 π:
初始狀態空間的概率分布
→ 第一次取每種骰子的概率。
從韋小寶擲骰子的例子中,我們可以得到以下三個引數:
狀態轉移概率矩陣 a=
(aij
) ai
j=p(
qt=s
j|qt
−1=s
i),1
≤i,j
≤n a
ij≥0
,σnj
=1ai
j=1
觀察值概率分布矩陣(發射矩陣) b=
(bjk
) bj
k=p(
ot=v
k|qt
=sj)
,1≤j
≤n,1
≤k≤m
bjk≥0,σ
mk=1
bjk=
1 初始狀態概率分布 π=
(πi)
πi=p(q1
=si)
,1≤i
≤n π
i≥0,
σni=
1πi=
1 給定模型λ=
(π,a
,b) ,觀察序列o=
o1,o
2,…o
t 可由以下步驟產生:
1.根據初始狀態概率分布π=
πi選擇乙個初始狀態q1
=si ;
2.設t=1;
3.根據狀態si的輸出概率分布bj
k ,輸出ot
=vk ;
4.根據狀態轉移概率分布ai
j ,轉移到新狀態qt
+1=s
j ;
5.設t=t+1,如果
t<
t ,重複步驟3、4,否則結束。
經典模式簡介
為什麼要學習模式?設計模式減少了物件之間的依賴性,降低耦合程度,讓系統更易於擴充套件,提高了物件的可復用性,設計模式的優勢 1 復用解決方案,復用公認的設計,能學習其他的經驗,避免重蹈覆轍。2 確立通用術語,在分析和設計階段提供了共同的基準點 用於交流和協作的共同詞彙和對問題共識 3 提供更高層次的...
hmm和Veterbi演算法(一)
只是略微的看了些,有點感覺,還未深入,做個記錄。參考 隱馬爾可夫 hmm 前 後向演算法 viterbi 演算法 再次總結 誰能通俗的講解下 viterbi 演算法?數學之美第二版的第 26 章 1.hmm三要素 2.維特比演算法 3.簡明例子 1.初始概率分布 z1 可能是狀態 1,狀態 2 狀態...
一階HMM詞性標註
手頭的語料庫依然是msr training.utf8和msr test.utf8,它來自於自于sighan bakeoff 2005的 icwb2 data.rar 1.rmspace.cpp研究院的訓練文件是已經分好詞,但我們並不需要這個結果,我們要使用計算所有分詞系統重新進行分詞並進行詞性標註,...