cost函式:
邏輯回歸的代價函式, 其實跟線性回歸有很大的不同。
首先不僅僅是hypothesis函式的定義跟線性回歸很不一樣, 理解邏輯回歸的最重要的一點就是先理解hypothesis函式。 hypothesis的解釋是「在引數θ下, 輸入向量x對應y=1的概率」 這裡, y = 1 和y = 0 就是我們分類的依據。 如y = 1 表示腫瘤為惡性, y = 0 則表示為良性。 順便也解釋一下向量x , x中有兩個值 , 假設分別表示腫瘤的質量和尺寸, x(大) 則是訓練樣本中所有x的集合 。
hypothesis函式: 對於任意乙個訓練樣本,輸入向量x(包含尺寸、和質量) ,在引數θ下, 會有乙個0-1之間的輸出值, 我們管它叫概率, 實際上只是乙個0-1之間的值, 不是真正意義上的概率。 如果該輸出為1, 並且該訓練樣本x對於的真實y也確實為1, 則我們的cost函式(第乙個式子) 返回0 。 如果hypothesis函式 的到返回值不為1 ,而實際上對應的y確實是1 , cost函式會返回乙個可能交大的值。 至於這個值有多大,則要看hypothesis函式的返回值 跟 1 差多少, 參看 -log(z) 的影象。
根據這個假設函式, 我們得到的cost函式是凸的。 可以用梯度下降演算法來求出θ的最優值。 這個步驟就跟線性回歸是一直的了。
再之後, 我們求出了θ , 但是怎麼畫決策界限呢?
根據x * theta = 0
我們可以得出: plot_x = [x(:,2), x(:,2)];
plot_y = (-1./theta(3)).*(theta(2).*plot_x + theta(1));
為什麼只要任意兩個點就能確定這條線?
因為 這實際上是x₂ = (-1./theta(3)).*(theta(2).*x₁+ theta(1)) 的直線, 當theta 確定以後(這兒已經確定)就是笛卡爾座標軸上的一條特定直線, 所以與具體訓練集中的資料就無關了。
為什麼這條直線作為決策邊界呢?
這是因為該直線是根據: theta * x = 0 變形得到的。 theta * x 就是hypothesis = 1/(1 + exp(z)) 中的z, 當z為0時 , hypothesis 的值為0.5, 所以在這條直線上的點就是hypothesis 的值為0.5 的點, 也就是概率為0.5的點, 這直線自然成了分水嶺。
邏輯回歸學習筆記
邏輯回歸 邏輯回歸是乙個二分類問題,在分類過程值中可以得到代分類樣本所屬類別的概率。對於輸入x和輸出 結果y 邏輯回歸採用sigmoid函式,將實數域的x對映到 0 1 區間。sigmoid函式如下所示 h x 11 e x 則可以得到輸入x屬於正例和反例的概率,如下 py 1 x h x p y ...
學習筆記(三)邏輯回歸
線性回歸和邏輯回歸其實沒有多大的區別,就是邏輯回歸多了乙個sigmoid函式,使樣本能對映到 0,1 之間的數值,用來做分類問題。線性回歸 線性指輸入變數是一次的,回歸即擬合,線性回歸即 確定唯一的因變數 需要 的值 和乙個或多個數值型的自變數 變數 之間的關係。即 求出w,b的值y f x wx ...
學習筆記之邏輯回歸
引言 今天我們學習邏輯回歸。我們都知道線性回歸模型是y w tx b y w tx b y wtx b,我們對他進行變形,得到lny wtx blny w tx b lny wt x b,這就是 對數線性回歸 logit linear regression 就是我們所說的邏輯回歸。再變形y e wt...