1.庫函式匯入
import warnings
warnings.filterwarnings(
'ignore'
)import numpy as np
# 載入鶯尾花資料集
from sklearn import datasets
# 匯入高斯樸素貝葉斯分類器
from sklearn.*****_bayes import gaussiannb
from sklearn.model_selection import train_test_split
2.資料匯入
x, y = datasets.load_iris(return_x_y=
true
)x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=
0.2, random_state=
0)
3.模型訓練
# 使用高斯樸素貝葉斯進行計算
clf = gaussiannb(var_smoothing=1e-
8)clf.fit(x_train, y_train)
4.應用**
# 評估
y_pred = clf.predict(x_test)
acc = np.
sum(y_test == y_pred)
/ x_test.shape[0]
print
("test acc : %.3f"
% acc)
# **
y_proba = clf.predict_proba(x_test[:1
])print
(clf.predict(x_test[:1
]))print
("預計的概率值:"
, y_proba)
5.結果分析
從**果中,可見類別2對應的後驗概率值最大,所以認為類目2是最優的結果。
Task 02 樸素貝葉斯 阿里雲天池
鶯尾花資料集 貝葉斯分類 從sklearn庫中匯入貝葉斯模型和資料劃分函式 將所訓練的資料劃分為訓練集和測試集 import random import numpy as np 使用基於類目特徵的樸素貝葉斯 from sklearn.bayes import categoricalnb from s...
機器學習 02 樸素貝葉斯
理論部分 樸素貝葉斯基本原理 樸素貝葉斯的三種形式 極值問題情況下的每個類的分類概率 下溢問題如何解決 零概率問題如何解決 sklearn引數詳解 生成模型 在概率統計理論中,生成模型是指能夠隨機生成觀測資料的模型,尤其是在給定某些隱含引數的條件下。它給觀測值和標註資料序列指定乙個聯合概率分布。在機...
機器學習 樸素貝葉斯 02
心得體會 1交叉驗證 從訓練的資料裡隨機抽取作為測試集 4 6樸素貝葉斯過濾垃圾郵件 樸素貝葉斯交叉驗證 deftextparse bigstring import re listoftokens re.split w bigstring return tok.lower for tok in li...