一句話:邏輯回歸假設資料服從伯努利分布,通過極大化似然函式的方法,運用梯度下降求解引數,來達到將資料二分類的目的。
邏輯回歸演算法是將線性函式的結果對映到sigmoid
函式中:
\[h_=\frac}=\fracx}}
\]函式的形式如下:
因此對於輸入x
分類結果為類別1
和類別0
的概率分別為:
\[\begin
p(y=1|x;\theta)&=h_\\
p(y=0|x;\theta)&=1-h_(x)
\end
\]利用極大似然估計的方法求解損失函式,首先得到概率函式為:
\[p(y|x;\theta)=(h_(x))^y*(1-h_)^
\]因為樣本資料互相獨立,所以它們的聯合分布可以表示為各邊際分布的乘積,取似然函式為:
\[\begin
l(\theta)&=\prod_^|x^;\theta)}\\
&=\prod_^(x^))^}*(1-h_(x^))^})}
\end
\]取對數似然函式:
\[l(\theta)=\log(l(\theta))=\sum_^\log(x^))}+(1-y^)\log()}}))}
\]最大似然估計就是要求得使 \(l(\theta)\) 取最大值時的 \(\theta\) ,為了應用梯度下降法。我們稍微變換一下:
\[j(\theta)=-\fracl(\theta)
\]對於單個樣本來講,\(j(\theta)\) 所對應的 \(c(\theta)\) 為:
\[c(\theta)=-[y\log(x)}+(1-y)\log(x))}]
\]當 \(y=1\) 時:\(c(\theta)=-\log(x)}\)
其函式影象為:
從圖中可以看出,對於正類 \(y=1\),當**值 \(h_(x)=1\) 時,損失函式 \(c(\theta)\) 的值為 0,這正是我們希望得到的。反之,則會給學習演算法較大的懲罰。
當 \(y=0\) 時:\(c(\theta)=-\log(x))}\)
其函式影象為:
分析同上。
機器學習之邏輯回歸
什麼叫邏輯回歸?簡單來講便是目標值只有,而線性回歸的目標值卻是乙個區域 0,1 可以代表得病沒得病,正確錯誤,etc.那麼怎麼才能把給定的輸入值正確的分類到呢,下面就介紹乙個特別的函式 sigmoid函式,g z 1 1 exp z 啥都不說先上圖。上圖便是sigmoid函式圖了,之所以引用這個函式...
機器學習之 邏輯回歸
邏輯回歸又稱logistic回歸,邏輯斯諦回歸,是一種廣義的線性回歸分析模型。sigmoid函式也是神經網路中常用的函式,用於把x從負無窮到正無窮壓縮到y從0到1之間。畫出來就是一條s型曲線,如下圖中的藍色曲線 它以0點為中心對稱,公式如下 當x值接近負無窮時,分母很大,s x 接近0,當x接近正無...
機器學習之邏輯回歸
邏輯回歸 logistic regression 最初是為了解決二分類問題。對於線性模型要想進行如二分類任務,最簡單的辦法就是通過階躍函式 unit step function 即將線性模型的輸出值套上乙個函式進行分割,大於z的判定為0,小於z的判定為1。如下圖左所示 但這有個問題是,分段函式不連續...