k鄰近是一種不顯式的學習演算法,其實我感覺它就像個無賴,比如說一堆小朋友玩,小藍問洪濤:你是好人還是壞蛋?洪濤從身邊抓了3個小朋友,其中有兩個是好人,乙個是壞蛋,洪濤就可以說:「俺身邊大多數人都是好人,所以俺也是好人!」
**如下:
import numpy as np
from sklearn.neighbors import kneighborsclassifier
defmain()
:# 訓練資料
x_train=np.array([[
5,4]
,[9,
6],[
4,7]
,[2,
3],[
8,1]
,[7,
2]])
y_train=np.array([1
,1,1
,-1,
-1,-
1])# 待**資料
x_new = np.array([[
5,3]
,[6,
2]])
# 不同k值對結果的影響
for k in
range(1
,6,2
):# 構建例項
clf = kneighborsclassifier(n_neighbors=k,n_jobs=-1
)# 選擇合適演算法
clf.fit(x_train, y_train)
# print(clf.kneighbors(x_new))
# **
y_predict=clf.predict(x_new)
print
(clf.predict_proba(x_new)
)#print("**正確率:".format(clf.score([[5,3]],[[-1]])))
print
("k={},被分類為:{}"
.format
(k,y_predict)
)if __name__==
"__main__"
: main(
)
我認為與其說是訓練,不如說就在原始資料中進行對比。 python k 近鄰演算法例項分享
簡單說明 這個演算法主要工作是測量不同特徵值之間的距離,有個這個距離,就可以進行分類了。簡稱knn。已知 訓練集,以及每個訓練集的標籤。接下來 和訓練集中的資料對比,計算最相似的k個距離。選擇相似資料中最多的那個分類。作為新資料的分類。python例項 複製 如下 icagrtpiq coding ...
KNN演算法 鄰近演算法
knn演算法是機器學習裡面比較簡單的乙個分類演算法了,整體思想比較簡單 計算乙個點a與其他所有點之間的距離,取出與該點最近的k個點,然後統計這k個點裡面所屬分模擬例最大的,則點a屬於該分類。這樣講可能還有點迷糊,下面用乙個例子來說明一下 電影名稱 打鬥次數 接吻次數 電影型別 california ...
KNN演算法(鄰近演算法)
鄰近演算法 或者說k最近鄰 knn,k nearestneighbor 分類演算法是 資料探勘分類技術中最簡單的方法之一。所謂k最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它最接近的k個鄰居來代表。knn演算法的核心思想 是如果乙個樣本在特徵空間中的k個最相鄰的樣本中的大多數屬於某乙個類...