問題牛客網框架
光學不練也沒什麼用,而且容易產生很大的理解偏差,知識必須在題目中獲得總結和昇華。
gb(gradient boosting)梯度提公升
gbm (gradient boosting machine)
gbdt(gradient boosting decision tree)
整合學習: gbdt、xgboost 和 bagging、boosting
gbdt的變後續:xgboost和lightgbm
邏輯回歸與線性回歸是什麼關係?
邏輯回歸(logistic regression)與線性回歸(linear regression)都是一種(特殊的)廣義線性模型(generalized linear model)。邏輯回歸假設因變數 y 服從伯努利分布,而線性回歸假設因變數 y 服從高斯分布。 因此與線性回歸有很多相同之處,去除sigmoid對映函式的話,邏輯回歸演算法就是乙個線性回歸。可以說,邏輯回歸是以線性回歸為理論支援的,但是邏輯回歸通過sigmoid函式引入了非線性因素,因此可以輕鬆處理0/1分類問題。
注:廣義線性模型,簡稱glm。 該模型允許因變數的偏差分布有除了正態分佈之外的其它分布。
支援向量機的特別之處?
在以概率論為核心的機器學習中,支援向量機(svm)是一種較為特殊的方法。
最大的差異在於,svm其成立的基礎並非做出極大似然估計,而是尋求乙個分界線(本文使用「分界線」這一術語代指svm decision boundary hyper-plane)對資料集實現「最大分割間隔」。
lr和svm的聯絡與區別 ?
lr和svm的聯絡與區別
注意乙個點:生成模型和判別模型的區別
參考:機器學習與深度學習核心知識點總結 寫在校園招聘即將開始時
機器學習與深度學習常見面試題(上)
機器學習與深度學習常見面試題(下)
機器學習演算法模型特點總結
1.回歸問題可以使用的模型 linear and polynomial regression,neural networks,regression trees,random forests,support vector regression,bayes 2.kneighborsclassifier ...
學習階段總結(3)
上不了p站我要死了 嗚嗚嗚,這馬上就要noip了,卻突然發現自己還有好多薄弱的環節。心態 啊。辣麼首先是專題考試的收穫 先考了dp專題的考試,發現自己的dp還是可以的,但是一些細節上的基礎知識還不牢固 比如倍增跳到陣列外面去了,拓撲排序寫成dfs什麼的 然後就是一些考試暴露出來的毛病,如讀題不仔細 ...
機器學習課程學習階段總結
邏輯回歸是一種分類演算法,和之前的線性回歸不是同一類問題,但是對於處理問題上有相同的思想。對於線性回歸問題,有較容易理解的思路。首先指定乙個形式確定的 h x tx 然後根據所有樣本計算代價函式,距離的平方取平均再乘個係數 j 1 2m m i 1 h x i y i 2 簡單的理解就是根據假設函式...