機器學習演算法之 KNN k鄰近演算法

2021-08-13 15:21:35 字數 535 閱讀 5447

k 鄰近演算法應該是機器學習中最簡單的演算法了,也很容易理解。

場景:已知一組資料(點),並按照某些屬性對其進行了分類,比如(a,b,c, 這就是資料的labels)。對於新來的資料,已知其屬性,對其進行分類,加label。

k近鄰對於如何分類的做法就是,根據屬性,

1. 求出未知點到已知所有點的距離;

2. 對所有的距離進行排序;

3. 取出前k個距離位置點距離最近的點;

4. 根據這k個點的label 進行表決,即看哪種label的數量最多。

這就意味著未知點距離此類label的距離最近,因此,未知點的label也就確定了。

knn演算法的優點:

1.簡單,易於理解,易於實現,無需估計引數,無需訓練;

2. 適合對稀有事件進行分類;

3.特別適合於多分類問題(multi-modal,物件具有多個類別標籤), knn比svm的表現要好。

缺點:1. 樣本不平衡時,誤差大;

2. 計算量大;

3. 可理解性差,無法給出像決策樹那樣的規則。

機器學習演算法之 kNN k 鄰近演算法

knn 演算法 k 臨近演算法,最基本的機器學習演算法之一,簡單講就是已有標本資料,計算 的資料和每個標本資料的特徵距離 如歐氏距離 距離近的標本資料型別作為 資料的型別。原理 已有訓練樣本集,新的資料和訓練樣本特徵比較,訓練樣本集中取特徵最相似資料的標籤。一般來說先找前k個最相似的 資料,這就是k...

機器學習 KNN K 最鄰近演算法

k 近鄰學習是一種常用的監督學習方法,比如 判斷乙個人的人品,只需要觀察與他來往最密切的幾個人的人品好壞就可以得出,即 近朱者赤,近墨者黑 理論 原理 物以類聚,人以群分 乙個對於knn演算法解釋最清楚的圖如下所示 藍方塊和紅三角均是已有分類資料,當前的任務是將綠色圓塊進行分類判斷,判斷是屬於藍方塊...

機器學習 KNN K 最鄰近演算法

knn分類演算法,是理論上比較成熟的方法,也是最簡單的機器學習演算法之一。該方法的思路是 如果乙個樣本在特徵空間中的k個最相似 即特徵空間中最鄰近 的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別。knn演算法中,所選擇的鄰居都是已經正確分類的物件。該方法在定類決策上只依據最鄰近的乙個或者幾個...