似然函式 likelihood function
在機器學習中我們通常基於已有的學習集資料建立**模型,然後使用該模型在測試資料集上檢測該模型的有效性。
為量化模型有效性引入似然函式概念:
其中
該式的物理含義為: 已知
舉例摘自:
考慮投擲一枚硬幣的實驗
。令正面朝上的概率為
ph,背面向上的概率為
1-ph;
該假設即可視為**拋幣結果的模型。
已知投出的硬幣正面朝上和反面朝上的概率各自是
ph=0.5
,便可以知道投擲若干次後出現各種結果的可能性。比如說,投兩次都是正面朝上的概率是
0.25
。用條件概率表示,就是:
其中
h表示正面朝上。
在統計學中,我們關心的是在已知一系列投擲的結果時,關於硬幣投擲時正面朝上的可能性的資訊。我們可以建立乙個統計模型:假設硬幣投出時會有
ph的概率正面朝上,而有
1 -ph
的概率反面朝上。這時,條件概率可以改寫成似然函式:
(
該情況下,假設
ph=0.5
為**模型,
hh表示拋硬幣連續兩次正面朝上)
也就是說,對於取定的似然函式,在觀測到兩次投擲都是正面朝上時,
ph=0.5
的似然性是
0.25
(這並不表示當觀測到兩次正面朝上時
ph=0.5
的概率是
0.25)。
如果考慮
ph=0.6
,那麼似然函式的值也會改變。
注意到似然函式的值變大了。這說明,如果引數
ph的取值變成
0.6的話,結果觀測到連續兩次正面朝上的概率要比假設
ph=0.5
時更大。也就是說,引數
ph取成
0.6
要比取成
0.5
更有說服力,更為「合理
」。總之,似然函式的重要性不是它的具體取值,而是當引數變化時函式到底變小還是變大。對同乙個似然函式,如果存在乙個引數值,使得它的函式值達到最大的話,那麼這個值就是最為「合理
」的引數值。
在這個例子中,似然函式實際上等於:
如果取
ph=1
,那麼似然函式達到最大值
1。也就是說,當連續觀測到兩次正面朝上時,假設硬幣投擲時正面朝上的概率為
1是最合理的。
類似地,如果觀測到的是三次投擲硬幣,頭兩次正面朝上,第三次反面朝上,那麼似然函式將會是:
其中t表示反面朝上.
這時候,似然函式的最大值將會在的時候取到。也就是說,當觀測到三次投擲中前兩次正面朝上而後一次反面朝上時,估計硬幣投擲時正面朝上的概率是最合理的。
對於連續n次拋幣:
而極大似然函式法就是求使 取最大值時的
似然函式與最大似然估計
概率用於在已知一些引數的情況下,接下來的觀測所得到的結果,而似然性則是用於在已知某些觀測所得到的結果時,對有關事物性質的引數進行估計。是一種關於統計模型中引數的函式。例如,已知有事件a發生,運用似然函式,我們估計引數b的可能性。表明在已知觀測結果情況下,似然函式的值越高,該引數值可使模型越合理。最大...
似然函式 likelihood function
維基百科的對似然函式的解釋非常清楚細緻 似然函式 如果萬一維基百科中文也被強了,還有這個,一樣的 概述 似然函式是一種關於統計模型中的引數的函式,表示模型引數中的似然性。似然性 與 或然性 或 概率 意思相近,都是指某種事件發生的可能性,不同在於似然性不看重絕對值,只重相對值,所以不要求歸一性 一般...
似然函式 likelihood function
維基百科的對似然函式的解釋非常清楚細緻 似然函式 如果萬一維基百科中文也被強了,還有這個,一樣的 概述 似然函式是一種關於統計模型中的引數的函式,表示模型引數中的似然性。似然性 與 或然性 或 概率 意思相近,都是指某種事件發生的可能性,不同在於似然性不看重絕對值,只重相對值,所以不要求歸一性 一般...