上篇博文中的gda演算法中,如果我們把p(y=1|x)整理變形一下,就能得到
這是logistic回歸的h函式。
實質上,當我們假設p(x|y)服從正態分佈時,p(y=1|x)必然是logistic函式,但反過來不成立,也就是說,前者是更強的假設,當我們對問題做更強的假設時,往往就能更精確地找到問題地解,當然前提是假設正確。或基本正確。
更一般地,只要我們對p(x|y)的建模屬於glm指數分布族時,p(y=1|x)都是logistic函式,那麼最後得到的都是直線型的決策邊界。當實際問題的邊界線不是直線時,就不適用了,此後的博文會總結其他的演算法解決這個問題。
logistic回歸 logistic回歸
logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...
logistic分類(logistic回歸 LR)
幾乎所有的教材都是從logistic分類開始的,因為logistic分類實在太經典,而且是神經網路的基本組成部分,每個神經元 cell 都可以看做是進行了一次logistic分類。所謂logistic分類,顧名思義,邏輯分類,是一種二分類法,能將資料分成0和1兩類。logistic分類的流程比較簡單...
線性回歸和logistic分類回歸的區別
回歸問題和分類問題是深度學習裡面需要分清楚的兩種情況,需要根據不同的情況制定不同的演算法,完成不同的任務。兩者最本質的區別是回歸問題代表連續的擬合曲線 值,而分類問題則是將輸入的幾個值分為幾個離散的類。例如 線性回歸處理的是回歸問題 e xp ect y w x bexpect y wx b exp...