knn(k-nearest-neighbours classiflication)分類演算法,供大家參考,具體內容如下
最簡單的分類演算法,易於理解和實現
實現步驟:通過選取與該點距離最近的k個樣本,在這k個樣本中哪乙個類別的數量多,就把k歸為哪一類。
注意
通過sklearn對資料使用knn演算法進行分類
**如下:
## 匯入鳶尾花資料集
iris = datasets.load_iris()
data = iris.data[:, :2]
target = iri程式設計客棧s.target
## 區分訓練集和測試集,75%的訓練集和25%的測試集
train_data, test_data = train_test_split(np.c_[data, target])
## 訓練並**,其中選取k=15
clf = neighbors.kneighborsclassifier(15, 'distance')
www.cppcns.comclf.fit(train_data[:, :2], train_data[:, 2])
z = clf.predict(test_data[:, :2])
print '準確率:' ,clf.scwww.cppcns.comore(test_data[:, :2], test_data[:, 2])
colormap = dict(zip(np.unique(target), sns.color_palette()[:3]))
plt.scatter(train_data[:, 0], train_data[:, 1], edgecolors=[colormap[x] for x in train_data[:, 2]],c='', s=80, label='all_data')
plt.scatter(test_data[:, 0], test_data[:, 1], marker程式設計客棧='^', color=[colormap[x] for x in z], s=20, label='test_data')
plt.legend()
plt.show()
結果如下:
本文標題: python運用sklearn實現knn分類演算法
本文位址:
機器學習 運用sklearn庫實現隨機森林分類
通過呼叫sklearn庫快速實現隨機森林 決策樹 極端隨機樹等分類演算法 方便大家學習以及自己以後使用 coding utf 8 created on mon sep 21 20 08 53 2020 author dell import math from sklearn.ensemble imp...
列表運用 python
一 列表 序列是python中最基本的資料結構。序列中的每個元素都分配乙個數字 它的位置,或索引,第乙個索引是0,第二個索引是1,依此類推。python有6個序列的內建型別,但最常見的是列表和元組。序列都可以進行的操作包括索引,切片,加,乘,檢查成員。此外,python已經內建確定序列的長度以及確定...
python函式運用
一 函式 假設你需要對1到10 20到37以及35到49分別求和。如果你建立乙個程式來對這三個集合求和,你的 可能會像下面這樣 sum 0 for i in range 1,11 sum i print sum form 1 to 10 is sum sum 0 for i in range 20,...