def
line_regression()
:'''
線性回歸:乙個自變數稱為單變數回歸,多個自變數稱為多元回歸。找到最小損失,優化方法有正規方程和梯度下降兩種方式
api1(正規方程):sklearn.linear_model.linearregression(fit_intercept=true)此為通過正規方程優化
fit_intercept:是否計算偏置
linearregression.coef_:回歸係數
linearregression.intercept_:偏置
api2(梯度下降):sklearn.linear_model.sgdregressor(loss="squared_loss", fit_intercept=true, learning_rate ='invscaling', eta0=0.01)
sgdregressor類實現了隨機梯度下降學習,它支援不同的loss函式和正則化懲罰項來擬合線性回歸模型。
loss:損失型別
loss=」squared_loss」: 普通最小二乘法
fit_intercept:是否計算偏置
learning_rate : string, optional
學習率填充
'constant': eta = eta0
'optimal': eta = 1.0 / (alpha * (t + t0)) [default]
'invscaling': eta = eta0 / pow(t, power_t)
power_t=0.25:存在父類當中
對於乙個常數值的學習率來說,可以使用learning_rate=』constant』 ,並使用eta0來指定學習率。
sgdregressor.coef_:回歸係數
sgdregressor.intercept_:偏置
'''data = load_boston(
) x_train, x_test, y_train, y_test = train_test_split(data.data, data.target, test_size=
0.3, random_state=24)
std_x = standardscaler(
) x_train = std_x.fit_transform(x_train)
x_test = std_x.transform(x_test)
std_y = standardscaler(
) y_train = std_y.fit_transform(y_train.reshape(-1
,1))
y_test = std_y.transform(y_test.reshape(-1
,1))
# 梯度下降進行**
lin = sgdregressor(
) lin.fit(x_train, y_train)
pre = lin.predict(x_test)
print
("權重:"
, lin.coef_)
print
("偏執:"
, lin.intercept_)
print
("**結果:"
,pre)
a =[x for x in
range
(len
(pre))]
plt.plot(a,pre,color =
'red'
) plt.plot(a,y_test,color =
'yellow'
) plt.show(
)
Dubbo(八)執行緒模型
dubbo有兩種執行緒池,第一種是i o執行緒池,第二種是業務執行緒池。i o執行緒池主要是收包發包,接收新的連線,業務執行緒則是執行我們的業務 呼叫介面的實現類 i o執行緒數預設是cpu的個數 1,業務執行緒數預設是200。與其他半同步半非同步的模型相似,dubbo的業務執行緒池也配備了佇列,不...
PostGIS教程十八 線性參考
目錄 一 建立線性參考 二 函式列表 附 關於線性參考的概念,可以參考這篇文章 arcgis中的線性參考 動態分段技術 一 linear referencing背景 線性參考模型的優點是,從屬空間觀測資訊不需要與基準空間觀測資訊分開記錄,並且對基礎觀測資訊進行更新時,從屬觀測資訊將自動更新從而追蹤新...
疏漏總結(八) 執行緒池
先從構造方法裡面的引數開始說。corepoolsize 核心執行緒數 核心執行緒是一定會存在著的執行緒,也就是說,如果你設定了假如說5,那麼不管這五個執行緒有沒有任務,都會被建立出來。queuecapacity 阻塞佇列 當核心執行緒數被使用到了最大值後,新任務如果還需要建立執行緒,就會進入阻塞佇列...