可解釋性,則說明對於模型的結果我們是可以理解的,我們不但知道正確率,我們還知道正確率怎麼來的,在生成環境中我們可能會通過模型的可及時性獲取與之相關的特徵,這樣可以使的我們樣本更具有訓練意義
print
(lr.coef_,lr.intercept_)
# 預設的排序結果是從小到大排序,因此最左邊就是負相關比較高的值
print
(np.argsort(lr.coef_)
)# 是乙個(13,) 的 ndarray資料型別
print
(type
(lb.feature_names)
)# 傳入排序後的索引,就可以得到排序後的特徵名稱的從小到大的排序結果
print
(lb.feature_names[np.argsort(lr.coef_)])
# 線性回歸具有可解釋型,可以從模型中獲取重要的指標(對比深度學習沒有可解釋性)
print
(lb.descr)
# 通過視覺化的方式顯示某個特徵與**之間的關係
import matplotlib.pyplot as plt
# 修改預設字型,否則會有中文亂碼問題
plt.rcparams[
'font.sans-serif']=
['simhei'
]# x[行,列] x[:,[2,3,4]]
defdrawscatter
(x, y, xlabel)
: plt.scatter(x, y)
plt.xlabel(xlabel)
plt.ylabel(
'房價'
) plt.title(f'與房價的散點圖'
) plt.grid(
) plt.show(
)drawscatter(x[:,
5], y,
"房間數"
)drawscatter(x[:,
4], y,
"環保指標"
XGB模型可解釋性SHAP包實戰
xgboost相對於邏輯回歸模型在進行 時往往有更好的精度,但是同時也失去了線性模型的可解釋性。feature importance可以直觀地反映出特徵的重要性,看出哪些特徵對最終的模型影響較大。但是無法判斷特徵與最終 結果的關係是如何的。lundberg和lee的 提出了shap值這一廣泛適用的方...
ccs框模型與視覺化格式模型
視覺化格式模型 margin對於table相關型別 除了table caption,table,inline table這3類 的元素是不起作用的,如td,tr,th等。另外對於行內非替換元素 如span元素 垂直方向的margin是不起作用的。padding屬性也有一定的限制,它可以使用在除dis...
CIFAR 10模型訓練與視覺化
通過caffe深度學習框架在cifar10資料集訓練得到模型,觀察並分析模型的train loss test loss及accuracy曲線,並對得到的caffemodel進行測試。資料集介紹 cifar 10是乙個使用非常廣泛的物體識別影象資料集,cifar 10資料中包含了60000張32 32...