from pandas import read_csv
from sklearn.linear_model import linearregression
from sklearn.linear_model import logisticregression
from sklearn.model_selection import kfold
from sklearn.model_selection import cross_val_score
from sklearn.discriminant_analysis import lineardiscriminantanalysis
from sklearn.neighbors import kneighborsclassifier
from sklearn.*****_bayes import gaussiannb
from sklearn.tree import decisiontreeclassifier
from sklearn.svm import svc
filename = 'pima_data.csv'
names = ['preg','plas','pres','skin','test','mass','pedi','age','class']
data = read_csv(filename,names = names)
array = data.values
x = array[:,0:8]
y = array[:,8]
num_folds = 10
seed = 7
kfold = kfold(n_splits=num_folds,random_state=seed)
#邏輯回歸(線性演算法)
# model = logisticregression()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
#線性判別分析(線性演算法)
'''將高維的模式樣本投影到最佳鑑別向量空間,可以抽取分類資訊和壓縮特徵空間維數'''
# model = lineardiscriminantanalysis()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
#非線性演算法
#k近鄰演算法
'''如果乙個樣本在特徵空間的k個最相似的樣本中的大多數屬於乙個類別,該樣本也屬於這個類別'''
# model = kneighborsclassifier()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
#貝葉斯分類器
'''先計算先驗概率,用貝葉斯公式計算出後驗概率,最小錯誤率上的優化'''
# model = gaussiannb()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
#分類與回歸樹
# model = decisiontreeclassifier()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
#支援向量機svm
# model = svc()
# result = cross_val_score(model,x,y,cv=kfold)
# print(result.mean())
python 機器學習KNN分類演算法
k近鄰演算法是機器學習中最簡單的演算法,其可以做最基本的分類操作,偽 如下 對未知類別屬性的資料集中的每個點依次執行以下操作 1 計算已知類別資料集中的每個點與當前點之間的距離 2 按照距離遞增次序排序 3 選怒與當前點距離最小的k個點 4 確定前k個點所在類別出現的頻率 5 返回前k個點出現頻率最...
機器學習演算法分類
這些演算法按照學習方式分類的分的話,可以分為一下幾類 1 監督式學習 從給定的訓練資料集中學習出乙個函式,當新的資料到來時,可以根據這個函式 結果。監督學習的訓練集需要包括輸入和輸出,也可以說是特徵和目標。訓練集中的目標是由人標註的。常見的監督式學習演算法包括回歸分析和統計分類。2 非監督式學習 與...
機器學習 分類演算法
最優化理論基礎 分類演算法詳解 簡單例項講解樸素貝葉斯分類演算法 機器學習實戰 樸素貝葉斯 機器學習實戰 python3 基於概率論的分類方法 樸素貝葉斯 機器學習入門之決策樹演算法 決策樹演算法的基本原理 機器學習實戰 python3 決策樹id3 機器學習實戰 基於資訊理論的三種決策樹演算法 i...