from sklearn import datasets
from sklearn.linear_model import linearregression
loaded_data = datasets.load_boston()
data_x = loaded_data.data
data_y = loaded_data.target
model = linearregression()
model.fit(data_x, data_y)
print(model.predict(data_x[:4, :]))
「」"
[ 30.00821269 25.0298606 30.5702317 28.60814055]
「」"model.fit 和 model.predict 就屬於 model 的功能,用來訓練模型,用訓練好的模型**。
引數和分數
然後,model.coef_ 和 model.intercept_ 屬於 model 的屬性, 例如對於 linearregressor 這個模型,這兩個屬性分別輸出模型的斜率和截距(與y軸的交點)。
print(model.coef_)
print(model.intercept_)
"""[ -1.07170557e-01 4.63952195e-02 2.08602395e-02 2.68856140e+00
-1.77957587e+01 3.80475246e+00 7.51061703e-04 -1.47575880e+00
3.05655038e-01 -1.23293463e-02 -9.53463555e-01 9.39251272e-03
-5.25466633e-01]
36.4911032804
"""
model.get_params() 也是功能,它可以取出之前定義的引數。
print(model.get_params())
""""""
model.score(data_x, data_y) 它可以對 model 用 r^2 的方式進行打分,輸出精確度。關於 r^2 coefficient of determination 可以檢視 wiki
print(model.score(data_x, data_y)) # r^2 coefficient of determination
"""0.740607742865
"""
Sklearn包含的常用演算法
原文傳送門 sklearn包含的常用演算法 文章列出了sklearn模組中常用的演算法及呼叫方法,部分生僻的未列出 對我來說算生僻的 如果有寫的不對的地方請指出。參考資料來自sklearn官方 總的來說,sklearn可實現的函式或功能可分為以下幾個方面 二次判別分析 qda from sklear...
非功能屬性
根據iso25010和ieee.29119 4附錄a中的描述,非功能屬性測試也稱質量屬性測試,包括以下14點 功能測試和過程測試在功能屬性中進行 可達性 可指軟體從設計到實現,能使殘障人士,老年人,非本土人群等不同人群獲得同等資訊和服務。可恢復性 指軟體在發生故障時是否可以將測試項從備份恢復到其故障...
sklearn中SVC中的引數說明與常用函式
svm.svc c 1.0,kernel rbf degree 3,gamma auto coef0 0.0,shrinking true,probability false,tol 0.001,cache size 200,class weight none,verbose false,max i...