import mglearn
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.ensemble import gradientboostingclassifier
from sklearn.datasets import make_circles
x, y = make_circles(noise=
0.25
, factor=
0.5, random_state=0)
#將兩個類別重新命名為"blue"和"red"
y_named = np.array(
["blue"
,"red"])
[y]#同時劃分多個陣列
x_train, x_test, y_train_named, y_test_named, y_train, y_test = train_test_split(x, y_named, y, random_state=0)
#構建梯度提公升模型
gbrt = gradientboostingclassifier(random_state=0)
gbrt.fit(x_train, y_train_named)
print
("x_test.shape: {}"
.format
(x_test.shape)
)print
("decision function shape: {}"
.format
(gbrt.decision_function(x_test)
.shape)
)print
("decision function:\n{}"
.format
(gbrt.decision_function(x_test)[:
6]))
#thresholded閾值化
print
("thresholded decision function:\n{}"
.format
(gbrt.decision_function(x_test)
>0)
)print
("predictions:\n{}"
.format
(gbrt.predict(x_test)))
#bool轉為int
greater_zero =
(gbrt.decision_function(x_test)
>0)
.astype(
int)
#gbrt.classes_是一維陣列, 裡面是各個類
pred = gbrt.classes_[greater_zero]
#all對所有元素進行與運算
print
("pred is equal to predictions: {}"
.format
(np.
all(pred == gbrt.predict(x_test)))
)#decision_function可以任意取值
decision_function = gbrt.decision_function(x_test)
print
("decision function minimum: maximum: "
.format
(np.
min(decision_function)
, np.
max(decision_function)
))
這個好一些, 它給出屬於第一類的概率和屬於第二類的概率, 比上面的那個更好理解. 可信計算 可信度量 度量的起點
可信計算的三個關鍵技術 可信度量 儲存 報告 資料保護 身份證明。先講可信度量。度量的起點 可信度量的實際方法是完整性度量,完整性度量就是用雜湊函式計算 的雜湊值,與儲存的雜湊值對比,去發現 是否改變,根據比對結果,系統做出相應的判斷。度量的起點是rtm root of trust for trea...
如何判斷資訊的可信度,避免被數字欺騙?
感謝關注天善智慧型,走好資料之路 歡迎關注天善智慧型,我們是專注於商業智慧型bi,人工智慧ai,大資料分析與挖掘領域的垂直社群,學習,問答 求職一站式搞定!通過網際網路資訊,我們可以看到很多的資訊,但是,該如何判斷資訊的可信度呢?例如看到新聞列舉的平均工資 各種知識付費新聞等等,我們該如何取捨呢?是...
應優先大力發展智慧型環境安全可信度評價演算法
應優先大力發展智慧型環境安全可信度評價演算法 時下國外國內人工智慧可謂如火如荼,可是奇怪的是大家把所有注意力都放在了這些具有簡單人工智慧的產品研發上面。如果說人工智慧的領頭羊是國外技術強國,那麼我們自己這只小羊羔倒是很乖巧的跟在屁股後面,好處 是不需要動一點兒腦子,只需要線性地將外國貨 外國技術向前...