舉個在 nlp 的應用:給一段文字,返回情感分類,這段文字的態度是positive,還是negative:
圖6-1 問題案例
為了解決這個問題,可以只看其中的一些單詞:
這段文字,將僅由一些單詞和它們的計數代表:
原始問題是:給你一句話,它屬於哪一類 ?通過bayes rules變成乙個比較簡單容易求得的問題:
問題變成,這一類中這句話出現的概率是多少,當然,別忘了公式裡的另外兩個概率。例子:單詞「love」在positive的情況下出現的概率是 0.1,在negative的情況下出現的概率是0.001。
圖6-2 nb演算法結果展示圖
給乙個新的資料時,離它最近的 k 個點中,哪個類別多,這個資料就屬於哪一類。
例子:要區分「貓」和「狗」,通過「claws」和「sound」兩個feature來判斷的話,圓形和三角形是已知分類的了,那麼這個「star」代表的是哪一類呢?
圖7-1 問題案例
k=3時,這三條線鏈結的點就是最近的三個點,那麼圓形多一些,所以這個star就是屬於貓。
機器學習經典演算法
函式名稱均為sklearn庫中的函式 1.線性回歸演算法 linearregression 其中常用的有 ridge 嶺回歸演算法,multitasklasso 多工lasso回歸演算法,elasticnet 彈性網眼演算法,lassolars lars套索演算法,orthogonalmatchin...
機器學習經典演算法筆記 KNN
這裡面涉及到一些演算法實現的包,比如得到的每個點,求距離後怎麼處理的問題。前面求歐氏距離就不贅述了,這裡主要是補充一點求出結果後怎麼處理的問題 nearest np.argsort distances 這裡對每個距離進行排列,得出index 假設k 6的話 topx y train i for i ...
機器學習經典演算法筆記 梯度下降演算法
本文推薦乙個更好的版本理解 梯度下降,下面的 選自本文 這大概是我見過最好理解的乙個版本 梯度下降的場景假設 梯度梯度下降演算法的數學解釋 梯度下降演算法的例項 梯度下降演算法的實現 further reading 代價函式 j 12 m x y t x y j theta frac x theta...