高斯分布屬於指數分布族,線性最小二乘就是基於高斯分布。
線性最小二乘——最大似然——最小二乘。
高斯判別分析(gda)針對的是特徵向量 x 為連續值時的問題,而樸素貝葉斯(nb)針對的是特徵向量 x 為離散值時的問題。
gda 比 logistic 回歸有更嚴格的前置假設。當資料服從或大致服從正態分佈時,使用 gda 會達到更好的效果,因為 gda 利用了更多的資訊構建模型。但當資料不服從正態分佈時,那麼 logistic 回歸更有效,因為它作出更少的假設,構建的模型更加健壯,更加具有魯棒性。生成學習還有另外乙個好處,就是可以使用比判別學習模型更少的資料構建出強壯的模型。
雖然樸素貝葉斯假設是乙個極強的假設,但演算法在許多問題上依然執行很好。
機器學習筆記 1
1 機器學習的定義 如果乙個程式可以在任務t上,隨經驗e的增加,效果p隨之增加,則這個程式可以從經驗中學習。過程 單個神經元 2 基於tensorflow的nn 神經網路 用張量表示資料,用計算圖搭建神經網路,用會話執行,優化線上的權重 引數 得到模型。2.1 張量 多維陣列 列表 階 表示張量的維...
機器學習筆記1
高斯分布屬於指數分布族,線性最小二乘就是基於高斯分布。線性最小二乘 最大似然 最小二乘。高斯判別分析 gda 針對的是特徵向量 x 為連續值時的問題,而樸素貝葉斯 nb 針對的是特徵向量 x 為離散值時的問題。gda 比 logistic 回歸有更嚴格的前置假設。當資料服從或大致服從正態分佈時,使用...
機器學習筆記(1)
機器學習筆記。1 經驗誤差與過擬合 2 評估方法 測試集與訓練集互斥 2.1 留出法 資料集劃分為兩個互斥集,乙個用作訓練,乙個用作測試。注意資料分布一致性?分層取樣 正反例比例一致 由於按比例分割可能存在樣本次序的關係,正例 反例的具體化為可能影響結果的分析 需要進行多次隨機劃分,重複實驗取平均值...