em本身是一種迭代演算法,目的是實現含有隱變數的模型引數的極大似然估計,以及後驗分布的眾數。
em也可以用來補全缺失的資料集。(在此不做重點考慮)
演算法描述:
輸入:觀測變數資料y,隱含變數z,聯合分布p(y,z|theta),條件分布p(z|y,theta)
輸出:模型引數theta
1.選擇引數的初值theta0,開始迭代
2.e步:構造q函式,是當前引數下的乙個期望
3.m步:將q函式中的theta進行極大化處理,求得新的theta
em演算法在高斯混合模型中的應用
隱變數是資料所**的那個高斯分布。
em演算法的推廣(gem)
是一種具體實現em的演算法,也同樣可以用monte carlo方法來實現(具體見此文)
em 演算法也應用在hmm的非監督學習當中(待續)
《統計學習方法》筆記 EM演算法
em expectation maximization algorithm 用於含有隱變數的概率模型引數的極大似然估計。例子 有三枚a,b,c硬幣。首先a為選擇硬幣,對其進行投擲,其投擲結果正則選擇b硬幣進行投擲,反為選擇c硬幣,然後根據選擇的硬幣再進行投擲,記錄該硬幣的投擲結果,正面為1,反面為0...
統計學習方法九 EM演算法
一 em演算法是什麼?em演算法是一種迭代演算法,用於含有隱變數的概率模型引數的極大似然估計。作用 簡單直白的說,估計引數 是一種生成模型 1 用在概率模型中 2 含有隱變數 3 用極大似然估計方法估計引數 個人理解,概率模型中的一些引數,通常是一些概率 1 如果概率模型中的變數全部可觀測,那可以統...
統計學習方法筆記1 統計學習方法概論
統計學習是關於計算機基於資料構建概率統計模型並運用模型對資料進行 與分析的一門學科。從資料出發,提取資料的特徵,抽象出資料的模型,發現資料中的知識,又回到對資料的分析與 中去。統計學習關於資料的基本假設是同類資料具有一定的統計規律性,這是統計學習的前提。這裡的同類資料是指具有某種共同性質的資料,例如...