模型學習,不管是判別模型還是生成模型,都是學習訓練資料集中特徵
x x
與 其輸出
y' role="presentation" style="position: relative;">y
y的後驗概率 p(
y|x)
p (y
|x
),其實也就是直接學習或者間接學習的區別。
因此,我們的模型學到的是乙個後驗概率,為了防止出現學習過擬合的情況,我們通常會在損失函式後面加乙個關於權重
w w
的罰項,也叫正則項,這就是我們說的正則化方法。
而這個正則項,就相當於概率論中的先驗知識。
比如擲骰子,我們用乙個模型去** 點數6 朝上的概率,每個骰子不同的面的表面質量是不均勻(這裡拿那種用小洞洞做點數的骰子,畢竟洞的數量不一樣),但是我們知道每個面朝上的概率在 1/
6' role="presentation" style="position: relative;">1/6
1/6左右,這是我們根據已知知識作出的先驗假設,因此,當模型從僅含少量樣本的資料集中學到 5/
6 5/6
的 點數6 朝上的概率從而**時,我們就知道模型存在問題,需要更改。
例子是我瞎扯的,主要是說明先驗概率的意義正則化就像是這種先驗知識,當求解後驗概率加上先驗知識,就好像加了一種約束條件,讓模型盡可能地符合客觀規律。
概率論直觀理解
條件 例如拋硬幣這個試驗,滿足以上三個條件。隨機試驗的每乙個可能結果,通常用小寫的希臘字母 表示。如擲一顆骰子的試驗中,其出現的點數,1點 2點 6點 都是基本事件。由基本事件復合而成的事件。如擲一顆骰子的試驗中,出現偶數點,它是由出現 2 點 或 4 點 或 6 點 三個基本事件組成的,這是個復合...
理解分布函式 概率論
概率論中乙個非常重要的函式就是分布函式,知道了隨機變數的分布函式,就知道了它的概率分布,也就可以計算概率了。一 理解好分布函式的定義 f x p x x 所以分布函式在任意一點x的值,表示隨機變數落在x點左邊 x x 的概率。它的定義域是 值域是 0,1 二 掌握好分布函式的性質 1 0 f x 1...
dp(記憶化搜尋) 概率論(全概率)
題意 多組資料,n 9,m 4。相當於n堆紙牌,m 4位每堆紙牌的最上面。每次從所有紙牌的最上面,取前乙個字元相當的兩張牌,求最後都能取完的概率是多少。解析 直接暴搜,如果都是相等的,那就相當於是暴搜2 36次,肯定是不對的。記錄所有紙牌,每堆紙牌的個數,作為狀態。當前狀態dp i 等於所有子狀態的...