【參考】
【定義】
【涉及符號及意義】
樣本:( x , y ) ,一般數量為m個,x一般表示為乙個n維向量,y 為 1 或 0 ,報是目標值屬於0,1分類
訓練集(樣本集):作為訓練模型中引數的訓練資料,使用 x ( i ) 表示第 i 個樣本
【神經元模型】
可以看作乙個擁有 多個輸入和乙個輸出的黑箱,在黑箱中進行一系列操作,並且根據一些反饋對黑箱內部進行調整,進行某些運算,最終實現回歸。
首先明確目標,我們是想通過訓練集得到,在輸入乙個 x 時,我們能夠知道他是 0 還是 1,
而如果讓神經元輸出結果為0 或 1 這樣的值的話,不利於我們迭代優化回歸模型(原因?因為0,1會損失精度?)
所以這裡我們實際上需要求取的是, y 取 1 的概率
【sigmoid 函式】
前向傳播:輸入訊號一層一層傳遞到下面的神經元
將當前輸入的訓練集和當前的引數進行運算,得到一定結果
反向傳播:輸入和代價函式做以比較之後,作為得到的資訊返回到前置結點,從而影響前面神經元中的引數
【loss函式】
代價函式:樣本誤差相對個訓練集誤差
【梯度下降法】
每次根據loss函式,找到影響最大的引數,引數下降的最快的方向,對引數進行操作
以保證在盡量少的傳播過程中,將loss函式降到最低
【向量化】
將矩陣向量化,使得能夠和權重矩陣進行計算
logistic回歸 logistic回歸
logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...
機器學習實戰筆記 Logistic回歸
這裡我們會提到sigmoid函式,而且這個函式 梯度上公升法和梯度下降法 就像是神經網路的乙個神經元 個人這麼看而已 也像二極體的0.7v電壓,這裡面會提到梯度下降法,也會了解資料中缺失的處理。logistics回歸會讓我們接觸最優化演算法。其實我們生活中這樣的問題很多,例如如何在最短時間內從a地到...
機器學習 logistic回歸
統計機器學習有兩種常見的機器學習演算法 logistic回歸和svm,這兩種演算法都涉及到優化問題,是非常重要的兩種機器學習演算法,尤其是logistic回歸可能是工程上用的最廣泛的機器學習演算法了。在logistic回歸中訓練分類器就是尋找最佳擬合引數,使用的是最簡單常見優化演算法 梯度下降法。l...