昨晚寫完邏輯回歸準備寫感知機時,突然想到了兩個問題,感知機就停下筆來。第乙個問題是:我說了不管是分類還是回歸,都是要對p(
y|x)
p (y
|x
)進行建模,也說了,線性回歸是n(
y|wt
x,σ)
n (y
|wtx
,σ
),邏輯回歸是be
r(y|
sigm
(wtx
))b er
(y|s
igm(
wtx)
)。也通過極大似然估計出了模型引數,一切好像都捋順了。但是,突然我楞一下,模型呢?輸入輸出是什麼樣的關係?難道要我拿著輸入去輸進高斯分布,伯努利分布裡嗎?
其實這兩個演算法的模型我們是知道的。線性回歸就是y=
wtx y=w
tx
嘛,邏輯回歸就是y=
sigm
(wtx
) y=s
igm(
wtx)
嘛。可是這兩個模型表示形式是怎麼來的呢?
肯定是什麼什麼公式等式一步一步推到了這個模型形式吧?
就在我苦苦徘徊之際,靈光一閃。期望!
對,就是期望!其實我們要得到的是什麼?不就是我 有乙個輸入的時候,你給我乙個輸出嗎?那這個輸出怎麼得到呢?那線性回歸舉例,輸出
y y
是以wt
x' role="presentation" style="position: relative;">wtx
wtx為均值,以σ2
σ
2為方差的高斯分布啊?對不對?那高斯分布的期望的什麼?說到這裡我都笑了,均值啊!高斯分布的期望是它的均值啊!這裡的均值是什麼?不就是wt
x wtx
。邏輯回歸也是一樣的道理。所以,當有乙個輸入進模型的時候,其實我們輸出是什麼?是期望,是e[
y]e [y
],也就是yp
(y) yp(
y)
. 這個是我想到的,我的理解,沒有從哪本書上看到過,因為好像大家都預設線性回歸就是這個樣子,邏輯回歸就是那個樣子。估計引數的時候把極大似然函式掏了出來。沒有說模型為什麼是現在這個樣子。我的解釋就是期望。所以我的「概率-建模「**到這裡還是對的!
國內IT行業為什麼還是這個樣子?
今天上blog看到一篇文章,說的是乙個笑話諷刺了現在國內it行業的一些現狀 名字記不住了 我覺得很有道理,為什麼中小型it行業的公司都將所有責任放在程式設計師身上?管理人員只負責發發工資,搞搞後勤?產品出問題直接將責任推到專案經理身上,然後根據具體問題又下放到程式設計師身上,然後所謂的管理人員就根據...
機器學習模型為什麼要將特徵離散化
在學習機器學習中,看過挺多案例,看到很多人在處理資料的時候,經常把連續性特徵離散化。為此挺好奇,為什麼要這麼做,什麼情況下才要做呢。一 離散化原因 資料離散化是指將連續的資料進行分段,使其變為一段段離散化的區間。分段的原則有基於等距離 等頻率或優化的方法。資料離散化的原因主要有以下幾點 1 演算法需...
什麼是機器學習
機器學習 machine learning 是研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的效能。它是人工智慧的核心,是使計算機具有智慧型的根本途徑,其應用遍及人工智慧的各個領域,它主要使用歸納 綜合而不是演譯。學習能力是智慧型行為的乙個非常重...