今天聽組裡人聊天,說lr需要把特徵離散化,但是gbdt並不需要把特徵離散化;我很疑惑,我記得lr並不需要離散化啊。後來聽他們說,lr更適合處理稀疏資料,那麼把特徵先離散化到4個特徵維度(假設的),然後以後遇到這個特徵的時候,實際上就是四個特徵中的乙個有值了。【實際上是做了乙個啞變數處理】
以下摘自知乎:
3. 邏輯回歸屬於廣義線性模型,表達能力受限;單變數離散化為n個後,每個變數有單獨的權重,相當於為模型引入了非線性,能夠提公升模型表達能力,加大擬合;
6. 特徵離散化以後,起到了簡化了邏輯回歸模型的作用,降低了模型過擬合的風險。
Google Home其實是個錯誤
從google i o大會來看,google步微軟後塵的可能性在增加而不是減少。當年微軟如果不是圍繞著windows做網際網路,也許就沒有現在的google。而google如果仍然持續按照搜尋等工具的成功思路來運作ai,那它就很可能像微軟錯失網際網路那樣錯失ai。當年微軟並並非沒有投入資源做網際網路...
快樂其實是一種習慣
到處都不景氣,你的工作心情是否也染上了些許低迷呢?一大早,我跳上一部計程車,要去深圳郊區一企業做內訓。因正好是尖峰時刻,沒多久車子就卡在車陣中,此時前座的司機先生開始不耐地嘆起氣來。隨口和他聊了起來 最近生意好嗎?後照鏡的臉垮了下來,聲音臭臭的 有什麼好?到處都不景氣,你想我們計程車生意會好嗎?每天...
」operator 」其實是乙個函式名
1.以前,一直不太明白,過載運算子,今天看了 c 高階程式設計,第8章 終於明白了。operator 其實是乙個函式,關於拷貝建構函式,之前的部落格已經寫過,當時以為是乙個套路。現在終於明白,其實是乙個函式,而這個函式 返回了乙個 類型別的引用,這個函式的引數是類型別的引用。例子如下 spreads...