1、機器學習的定義:如果乙個程式可以在任務t上,隨經驗e的增加,效果p隨之增加,則這個程式可以從經驗中學習。
過程:
單個神經元:
2、基於tensorflow的nn(神經網路):用張量表示資料,用計算圖搭建神經網路,用會話執行,優化線上的權重(引數),得到模型。
2.1、張量:多維陣列(列表),階:表示張量的維數。
如:標量(0階)、向量(1階),矩陣(2階)
2.2、計算圖(graph):搭建神經網路的計算過程,只搭建,不運算。
2.3、會話(session):執行計算圖中的節點運算。
2.4、引數:表示輸入到求和過程上的權重w,用變數表示,隨機給初值。
3、神經網路的實現過程:
訓練階段(迴圈迭代):
(1)、準備資料集,提取特徵,作為輸入餵給神經網路;
(2)、搭建nn結構,從輸入到輸出(先搭建計算圖,再用會話執行)
(nn前向傳播演算法———>計算輸出);
(3)、大量特徵資料餵給nn,迭代優化引數
(nn反向傳播演算法———>優化引數訓練模型);
應用:(4)、使用訓練好的模型**和分類;
機器學習筆記1
高斯分布屬於指數分布族,線性最小二乘就是基於高斯分布。線性最小二乘 最大似然 最小二乘。高斯判別分析 gda 針對的是特徵向量 x 為連續值時的問題,而樸素貝葉斯 nb 針對的是特徵向量 x 為離散值時的問題。gda 比 logistic 回歸有更嚴格的前置假設。當資料服從或大致服從正態分佈時,使用...
機器學習筆記(1)
機器學習筆記。1 經驗誤差與過擬合 2 評估方法 測試集與訓練集互斥 2.1 留出法 資料集劃分為兩個互斥集,乙個用作訓練,乙個用作測試。注意資料分布一致性?分層取樣 正反例比例一致 由於按比例分割可能存在樣本次序的關係,正例 反例的具體化為可能影響結果的分析 需要進行多次隨機劃分,重複實驗取平均值...
機器學習筆記1
高斯分布屬於指數分布族,線性最小二乘就是基於高斯分布。線性最小二乘 最大似然 最小二乘。高斯判別分析 gda 針對的是特徵向量 x 為連續值時的問題,而樸素貝葉斯 nb 針對的是特徵向量 x 為離散值時的問題。gda 比 logistic 回歸有更嚴格的前置假設。當資料服從或大致服從正態分佈時,使用...