歸一化函式:x−m
in(x
)(ma
x(x)
−min
(x))
\frac
(max(x
)−mi
n(x)
)x−m
in(x
)還原:min
(x)+
x∗(m
ax(x
)−mi
n(x)
)min(x)+x*(max(x)-min(x))
min(x)
+x∗(
max(
x)−m
in(x
))
premnmx
aareturn(aa)}
postmnmx
return(x)}
pnew_premnmx
return(x)}
讀取資料,並進行歸一化處理car
car#訓練資料集p
p#目標值target
target
#做歸一化處理
#歸一化訓練資料集p
p#歸一化目標資料值target
target
載入並訓練模型library(amore)
nethidden.layer = "tansig",output.layer = "purelin",method = "adaptgdwm",stao = na)
#輸入層三個結點,隱藏層8個結點,輸出層2個結點,學習率0.035,誤差標準lms
result=train(net,p$x,target$x,error.criterium = "lms",report = true,show.step = 3000,n.shows = 5)
y1
**資料pnew
pnew
y2
y2
**曲線
legend(1990,1.2,pch=c("*","+","x"),col=c("red","green","blue"),legend=c("初始擬合","訓練擬合","新資料**"))
title("pop_traffic" )
plot(car[,1],target$x[,2],col="red",type="b",pch="*",xlim=c(1990,2012),ylim=c(0,1.5))
points(car[,1],y1[,2],col="green",pch="+")
points(c(2010,2011),y2[,2],pch="x",col='blue',cex=0.8)
lines(c(car[-1,1],2010,2011),c(y1[-1,2],y2[,2]),col="blue",type="b",pch="x",lwd=1.5,cex=0.8)
legend(1990,1.2,pch=c("*","+","x"),col=c("red","green","blue"),legend=c("初始擬合","訓練擬合","新資料**"))
title("car_traffic" )
![b](file:///c:/users/administrator/desktop/b.png 「神經網路」)
回歸模型
model1
model2
colnames(pnew)
y11y22
yy[,1:2]
結果比較
1神經網路/2回歸
time
pop_traffic
car_traffic
12010
53902.65
28797.78
12011
55222.35
29566.71
22010
55081.91
29002.62
22011
56506.83
30169.88
用R實現神經網路
神經網路是一種運算模型,由大量的節點 或神經元 和之間的相互連線構成,每個節點代表一種特定的輸出函式。每兩個節點間的連線都代表乙個對於通過該連線訊號的加權值,稱為權重,這相當於神經網路的記憶。神經網路分為倆類 分類和回歸 注意點1難解釋2會學習過度,需要恰當的使用嚴格衡量神經網路的方法,如測試集和交...
R語言實現擬合神經網路 神經網路包
神經網路一直是迷人的機器學習模型之一,不僅因為花哨的反向傳播演算法,而且還因為它們的複雜性 考慮到許多隱藏層的深度學習 和受大腦啟發的結構。神經網路並不總是流行,部分原因是它們在某些情況下仍然存在計算成本高昂,部分原因是與支援向量機 svm 等簡單方法相比,它們似乎沒有產生更好的結果。然而,神經網路...
神經網路 python實現神經網路
神經網路系列目錄 神經網路 神經網路原理介紹 bp演算法 神經網路 sklearn引數介紹及應用 神經網路實戰 主播綜合評分回歸 實戰 最小二乘法 梯度下降法區別及python實現 本篇博文通過python 實現神經網路,採用sklearn自帶的手寫數字集,看分類情況如何 一 匯入資料集並標準化 資...