k最近鄰(k-nearest neighbor,knn)分類演算法,是乙個理論上比較成熟的方法,也是最簡單的機器學習演算法之一。該方法的思路是:如果乙個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別三維空間兩點a(x1,y1,z1)與b(x2,y2,z2)間的歐氏距離, 歐式舉例的本質就是如果兩個樣本之間的特徵值越相鄰,則值越小(距離越短)
通過此案例,理解訓練集與測試集的使用,了解k-近鄰api常用功能,並且掌握k超引數的意義
from sklearn.model_selection import train_test_split
from sklearn.neighbors import kneighborsclassifier
import pandas as pd
# knn 近鄰 可以解決多分類問題 (邏輯回歸是解決二分類問題)
# 思想簡單,效果強大。
# 1: 資料獲取 (爬蟲,資料庫,csv)
data = pd.read_csv(
'../data/movie.csv'
)data.info(
)# 2: 資料清理:預設值、異常點、重複項
# 3: 特徵工程 (刪除無關特徵, 資料標準化)
y = data[
'type'
]x = data.drop(
['type'
,'name'
],axis=1)
# 4: 獲取訓練集與資料集,指定random_state可以每次生成相同的值
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=
0.2,random_state=1)
# 列印訓練集的特徵值與目標值
print
(x_train)
print
(y_train)
# 5:模型的選擇
# 超引數設定:weight:距離的權重;uniform:一致的權重;distance:距離的倒數作為權重
knn = kneighborsclassifier(n_neighbors=
3,weights=
"distance"
)knn.fit(x_train,y_train)
y_predict = knn.predict(x_test)
print
('**的結果為:'
, y_predict)
print
('**命中率為:'
,knn.score(x_test,y_test)
)# 6: 模型的優化與使用: 交叉驗證與網格搜尋
# 7: 模型的儲存與使用
k 近鄰演算法
此文章參考機器學習實戰一書,具體的理論知識可以參考該書。本文的初衷只是為了做乙個複習,將學過的知識加以整理,其中不免有一定的錯誤。2.k 近鄰演算法的原理介紹 k 近鄰演算法通過測量不同的特徵值之間的距離進行分類。它的工作原理如下 存在乙個樣本的資料集合,也成為訓練樣本集合。並且樣本集中的每個資料都...
走進K近鄰
k最近鄰 k nearest neighbour,knn 分類演算法的思路是 如果乙個樣本在特徵空間中的k個最相似 即特徵空間中最鄰近 的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別。k近鄰演算法的想法很簡單,類似於多數表決,關鍵點是參與多數表決的人是離你最近的k個人。給定乙個例項,首先從訓...
K 近鄰演算法
k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。優點 精度高 對異常值不敏感 無資料輸入假定 缺點 計算複雜度高 空間複雜度高 適用資料範圍 數值型和標稱型 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入...