機器學習一百天-day7/11-knn近鄰法
在協同過濾裡應用的就是近鄰法
讀取資料,劃分資料集,特徵歸一化
import numpy as使用kneighborsclassifier,npimport pandas
aspd
import matplotlib.pyplot
asplt
dataset = pd.read_csv('
d:\\100days\datasets\social_network_ads.csv')
x = dataset.iloc[:,[2,3
]].values
y = dataset.iloc[:,4
].values
from
sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.25,random_state=0
)from
sklearn.preprocessing import standardscaler
sc =standardscaler()
x_train =sc.fit_transform(x_train)
x_test = sc.fit_transform(x_test)
具體介紹見
fromsklearn.neighbors import kneighborsclassifier
classifier = kneighborsclassifier(n_neighbors=5,metric='
minkowski
',p=2
)classifier.fit(x_train,y_train)
y_pred =classifier.predict(x_test)生成的混淆矩陣是這樣的from
sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test,y_pred)
[[644]得分是0.93[ 329]]
機器學習一百天 K近鄰演算法
這裡介紹的略簡單了一些,稍後會補上 k近鄰演算法是一種簡單但也最常用的分類演算法,他也可以應用於回歸計算。k nn是無引數學習,它是基於例項並在乙個有監督的學習環境中使用。k nn 用於分類是,輸出是乙個類別,這種方法有三個關鍵因素 一組標記的物件,例如 一組已儲存的記錄 物件之間的距離以及k的值 ...
機器學習一百天 第三天 多元線性回歸
多元線性回歸是嘗試通過用乙個線性方程來適配觀測資料,這個線性方程是兩個以上的特徵和相應之間構建的乙個關係。多元線性回歸的實現步驟和簡單的線性回歸相似,只是在評價部分有所不同。自變數和因變數的關係是線性 誤差項的方差必須等同 多元回歸假定殘差符合正態分佈 缺少多重共線性 在多元回歸模型中,當遇到資料集...
機器學習100天(Day 2)
今天的學習內容是簡單線性回歸,簡單了說就是一次線性回歸。直接上 吧!step 1 import pandas as pd import numpy as np import matplotlib.pyplot as plt dataset pd.read csv studentscores.csv ...