[課程位址]
第十三講,高斯混合模型
主要內容
值得注意的地方
######1.em演算法的收斂
em演算法通過最大化似然函式的下界(使用jesen不等式得到),來近似最大化似然函式,其優化過程相當與對於其下界函式的座標上公升。
######2.高斯混合模型的優化
q-step中的優化是乙個條件極值問題,約束是σjϕ
j=
1\sigma_j\phi_j=1
σjϕj
=1且ϕ j≥
0\phi_j\geq0
ϕj≥
0,但是經驗表示,即便忽略後乙個條件,我們也可以得到滿足的解
3.為什麼需要因子分析
當n ≈m
n≈m或n≫m
n\gg m
n≫m時,假如使用高斯模型來擬合p(x
)p(x)
p(x)
,會得到奇異的協方差矩陣σ
\sigma
σ,使得σ−1
\sigma^
σ−1無法計算,雖然通過對協方差矩陣進行對角化或數量化約束可以使得最大似然法得以進行,但是這樣忽略了資料之間的相關性,因此,我們選擇因子分析,既能保留資料的相關性,又不必計算出協防差矩陣。
第十四講, 主成分分析
主要內容
值得注意的地方
######1.pca的intuition
找到資料變異(方差)最大的投影方向,或找到資料到某條直線的距離平方和最小的直線
######2.pca的應用
視覺化,資料壓縮,降維
第十五講, 奇異值分解
主要內容
值得注意的地方
1.svd能增加pca實現的效率
假設設計矩陣x∈r
m×
50000
x\in r^
x∈rm×5
0000
,那麼σ∈r
50000
×50000
\sigma \in r^
σ∈r500
00×5
0000
,計算特徵值就十分複雜,而直接用svd分解x
xx相對就簡單,因為xtx
=σ
x^tx=\sigma
xtx=
σ,那麼v
vv中就包含了σ
\sigma
σ的特徵向量。
第十六講, 馬爾可夫決策過程
主要內容
值得注意的地方
1.強化學習不同之處
強化學習的目標不像監督學習那麼明確,強化學習往往是乙個連續的決策過程,而監督學習多數是一次決策過程。
2.值迭代和策略迭代
策略迭代的計算代價主要是求解線性方程,當狀態數較大的時候傾向使用值迭代。
完成cs229的學習
Boolan C 第五周學習筆記
1.關於vptr和vtbl 之前的學習已經了解到c 多型主要靠虛函式實現,如果說c 的class在實現上相比c的struct有什麼開銷的話,那麼虛函式表 vtbl 的維護和每個物件例項裡虛表指標 vptr 將是比較明顯的開銷。對於如下三個類 class a virtual void vfunc2 v...
第五周學習筆記 201711671206
2.類的祖先類 object類 class a等同於class a object 3.在同乙個包中,子類繼承父類中的成員變數以及成員方法 除了private的 如果不在同乙個包裡面的話就繼承保護和公有的 4.成員變數的隱藏 所宣告的成員變數的名字和從父類繼承來的名字相同,子類就會隱藏繼承來的成員變數...
第五周學習
class 派生類名 public 基類名 復合關係 class base class derived public base void func derived obj obj.i 1 派生類自身i賦值 obj.base i 1 派生類中的基類i賦值 所以不建議再派生類中定義與基類相同名字的成員變...