#bp神經網路or多層感知機
#匯入模組
from sklearn.neural_network import mlpregressor
import pandas as pd
import numpy as np
#匯入資料
data_tr=pd.read_csv(
'd:\\python38\\bpdata_tr.txt'
,header=
none
)#header=none表示第一行不為列名
data_te=pd.read_csv(
'd:\\python38\\bpdata_te.txt'
,header=
none
)model=mlpregressor(hidden_layer_sizes=(10
,),max_iter=
10000
,random_state=10)
# bp神經網路回歸模型,可修改最大迭代次數減小誤差
model.fit(data_tr.iloc[:,
:2],data_tr.iloc[:,
2])# 訓練模型,.iloc表示對tr訓練資料提取列,(前兩列,第三列)
pre=model.predict(data_te.iloc[:,
:2])
# 模型**,對tr訓練資料提取列,(前兩列)
err=np.
abs(pre-data_te.iloc[:,
2]).mean(
)# 模型評價,求取**與實際結果間的誤差絕對值均值
今日是2020/11/8,這是我後續進行反演分析的乙個開端,個人認為用這個演算法也能很好進行乙個『三對一』的模型建立,但是為了看上去能更高階些,我還是要選擇乙個更複雜些的演算法。。。rvm
DGA系列之MLP(二)
針對機器學習對深度學習技術的發展過渡,發表一些個人的理解。一開始的機器學習,是基於特徵去實現讓機器具有識別工作,但需要識別的目標數量變得大的時候,機器學習所需要訓練的數量也會變大,而這個人們初期用的方法是在同乙個維度的橫向擴充套件 不斷地使用特徵資料訓練 這樣的確可以達到高的命中率,構造乙個完美的分...
反演 學習筆記
小聲bb 本來看skyh推的部落格,是來學容斥的,莫名其妙被強塞了反演 好多童鞋還不知道啥是反演,反正聽起來挺牛逼的,誰會誰被膜。比如說有兩個未知量 x,y 我們用 x 表達出來了 y 比如乙個一次函式 y kx b 那麼我們用 y 表示 x 就是 x frac emmmm 這差不多就是個反演。然後...
學習多層感知機MLP的心得
神經網路中一種模擬神經元 neuron 的結構,有輸入 input 輸出 output 權重 weight 前饋運算 feed forward 啟用函式 activation function 等部分。單層感知器能模擬邏輯與 邏輯或 邏輯非和邏輯與非等操作,但不能實現邏輯異或!啟用函式可以表示為 其...