概述
k-近鄰演算法採用測量不同特徵值之間的距離方法進行分類。
一般流程
收集資料
準備資料
分析資料
訓練演算法 %此步驟不適用k-近鄰演算法
測試演算法
使用演算法
匯入資料集
from numpy import * #匯入科學計算包
import operator #匯入運算子模組
defcreatedataset
(): group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
lables=['a','a','b','b']
return group,lables
準備資料:從文字中解析資料
def
file2mattrix
(filename):
#開啟檔案並得到檔案行數
fr=open(filename)
arrayolines=fr.readlines()
numberoflines=len(arrayolines)
#建立返回的numpy矩陣
##建立m行n列的零矩陣,存資料矩陣
returnmat=zeros((numberoflines,3))
classlablevector=#建立類標籤
index=0
#解析檔案資料到列表
for line in arrayolines:
#去除行的尾部的換行符
line=line.strip()
#將一行資料按空進行分割
listfromline=line.split('\t')
#將前三列資料存入將要返回的資料矩陣的對應行的前三列
returnmat[index,:]=listfromline[:3]
#最後一列為資料的分類標籤
index+=1
return returnmat,classlablevector
資料分析:使用matplotlib繪製散點圖需要匯入兩個庫
import matplotlib
import matplotlib.pyplot as plt
用上述函式從文字中匯入資料
datingdatamat,datinglables=file2mattrix("datingtestset.txt")
繪製散點圖
fig=plt.figure()
ax=fig.add_subplot(111)#畫布分割
#x軸為資料矩陣第一列,y軸為資料矩陣第二列
ax.scatter(datingdatamat[:,1],datingdatamat[:,2])
plt.show()
繪製的散點圖如下圖所示:
準備資料:歸一化數值
歸一化數值一般就是將資料變換到0到1或者-1到1的範圍內,下面公式能將任意取值範圍的數值歸一化到0到1範圍內:
newvalue=(oldvalue-min)/(max-min)
其中max和min分別為資料集中最大特徵值和最小特徵值
def
autonorm
(dataset):
#取列的最大值最小值(引數0表示從列取而不是行)
minvals=dataset.min(0)
maxvals=dataset.max(0)
ranges=maxvals-minvals
normdataset=zeros(shape(dataset))
m=dataset.shape[0]
normdataset=dataset-tile(minvals,(m,1))
normdataset=normdataset/tile(ranges,(m,1))
return normdataset,ranges,minvals
分析資料:
def
classify0
(inx,dataset,lables,k):
# shape[0]獲取行 shape[1] 獲取列
datasetsize=dataset.shape[0]
#求歐氏距離
diffmat=tile(inx,(datasetsize,1))-dataset
sqdiffmat=diffmat**2
sqdistances=sqdiffmat.sum(axis=1)
distances=sqdistances**0.5
#公升序排列
sorteddistindicies=distances.argsort()
classcount={}
for i in range(k):
# 獲取類別
voteilabel=labels[sorteddistindicies[i]]
#字典的get方法,查詢classcount中是否包含voteilabel,是則返回該值,不是則返回defvalue,這裡是0
# 其實這也就是計算k臨近點中出現的類別的頻率,以次數體現
classcount[voteilabel] = classcount.get(voteilabel,0) + 1
# 對字典中的類別出現次數進行排序,classcount中儲存的事 key-value,其中key就是label,value就是出現的次數
# 所以key=operator.itemgetter(1)選中的事value,也就是對次數進行排序
sortedclasscount = sorted(classcount.iteritems(),key=operator.itemgetter(1),reverse=true)
#sortedclasscount[0][0]也就是排序後的次數最大的那個label
return sortedclasscount[0][0]
測試演算法:作為完整程式驗證分類器
def
datingclasstest
(): horatio=0.10
datingdatamat,datinglables=file2matix('')
normmat,ranges,minvals=autonorm(datingdatamat)
m=normmat.shape[0]
numtestvecs=int(m*horatio)
errorcount=0.0
for i in range(numtestvecs):
classifierresult=classify0(normmat[i,:],normmat[numtestvecs:m,:],\
,datinglables[numtestvecs:m],3)
print('the classfier came back with: %d, the real answer is: %d'%(classifierresult, datinglables[i]))
if(classifierresult!=datinglables[i]):
errorcount+=1.0
print('the total error rate is: %f'%(errorcount/float(numtestvecs)))
使用演算法:構建完整可用系統
def
classfyperson
(): resultlist=['not at all','in small doses','in large doses']
percenttats=float(input('percentage of time spent playing vedio games?'))
ffmiles=float(input('frequent flier miles earned per year?'))
icecream=float(input('liters of ice cream consumed per year?'))
datingdatamat,datinglables=file2mattrix('')
normmat,ranges,minvals=autonorm(datingdatamat)
inarr=array([ffmiles,percenttats,icecream])
classifierresult=classify0((inarr-minvals)/ranges,normmat,datinglables,3)
print('you will probably like this person: ', resultlist[classifierresult-1])
k 近鄰演算法
此文章參考機器學習實戰一書,具體的理論知識可以參考該書。本文的初衷只是為了做乙個複習,將學過的知識加以整理,其中不免有一定的錯誤。2.k 近鄰演算法的原理介紹 k 近鄰演算法通過測量不同的特徵值之間的距離進行分類。它的工作原理如下 存在乙個樣本的資料集合,也成為訓練樣本集合。並且樣本集中的每個資料都...
K 近鄰演算法
k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。優點 精度高 對異常值不敏感 無資料輸入假定 缺點 計算複雜度高 空間複雜度高 適用資料範圍 數值型和標稱型 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入...
K 近鄰演算法
首先,我們將 k 近鄰演算法的基本理論 其次我們將使用python從文字檔案中匯入並解析資料 再次,討論當存在許多資料 的時,如何避免計算距離時可能碰到的一些常見錯誤 最後,利用實際的例子講解如何使用k 近鄰演算法改進約會 1.1 knn演算法 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且...