python k鄰近演算法

2021-10-19 11:37:42 字數 1090 閱讀 4713

k鄰近是一種不顯式的學習演算法,其實我感覺它就像個無賴,比如說一堆小朋友玩,小藍問洪濤:你是好人還是壞蛋?洪濤從身邊抓了3個小朋友,其中有兩個是好人,乙個是壞蛋,洪濤就可以說:「俺身邊大多數人都是好人,所以俺也是好人!」

**如下:

import numpy as np

from sklearn.neighbors import kneighborsclassifier

defmain()

:# 訓練資料

x_train=np.array([[

5,4]

,[9,

6],[

4,7]

,[2,

3],[

8,1]

,[7,

2]])

y_train=np.array([1

,1,1

,-1,

-1,-

1])# 待**資料

x_new = np.array([[

5,3]

,[6,

2]])

# 不同k值對結果的影響

for k in

range(1

,6,2

):# 構建例項

clf = kneighborsclassifier(n_neighbors=k,n_jobs=-1

)# 選擇合適演算法

clf.fit(x_train, y_train)

# print(clf.kneighbors(x_new))

# **

y_predict=clf.predict(x_new)

print

(clf.predict_proba(x_new)

)#print("**正確率:".format(clf.score([[5,3]],[[-1]])))

print

("k={},被分類為:{}"

.format

(k,y_predict)

)if __name__==

"__main__"

: main(

)

我認為與其說是訓練,不如說就在原始資料中進行對比。

python k 近鄰演算法例項分享

簡單說明 這個演算法主要工作是測量不同特徵值之間的距離,有個這個距離,就可以進行分類了。簡稱knn。已知 訓練集,以及每個訓練集的標籤。接下來 和訓練集中的資料對比,計算最相似的k個距離。選擇相似資料中最多的那個分類。作為新資料的分類。python例項 複製 如下 icagrtpiq coding ...

KNN演算法 鄰近演算法

knn演算法是機器學習裡面比較簡單的乙個分類演算法了,整體思想比較簡單 計算乙個點a與其他所有點之間的距離,取出與該點最近的k個點,然後統計這k個點裡面所屬分模擬例最大的,則點a屬於該分類。這樣講可能還有點迷糊,下面用乙個例子來說明一下 電影名稱 打鬥次數 接吻次數 電影型別 california ...

KNN演算法(鄰近演算法)

鄰近演算法 或者說k最近鄰 knn,k nearestneighbor 分類演算法是 資料探勘分類技術中最簡單的方法之一。所謂k最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它最接近的k個鄰居來代表。knn演算法的核心思想 是如果乙個樣本在特徵空間中的k個最相鄰的樣本中的大多數屬於某乙個類...