clc;close all;clear;
y(1)= 0;
k=1;
u(k)= sin(2*pi*k/250);
f(k)= 0.6*sin(pi*u(k))+0.3*sin(3*pi*u(k))+0.1*sin(5*pi*u(k));
y(k+1)= 0.3*y(k)+f(k);
for k=2:100
u(k)= sin(2*pi*k/250);
f(k)= 0.6*sin(pi*u(k))+0.3*sin(3*pi*u(k))+0.1*sin(5*pi*u(k));
y(k+1)= 0.3*y(k)+0.6*y(k-1)+f(k);
endp= [u(2:100);y(2:100);y(1:99)];
t= [y(3:101)];
net= newff(minmax(p),[20,20,1],,'trainlm','learngdm','msereg');
[net,tr] = train(net,p,t);
q= [u(2:100);y(2:100);y(1:99)];
nety= sim(net,q);
plot(1:99,y(1:99),'b',3:101,nety(1:99),'r');
legend('系統輸出','系統辨識');
% clc;close all;clear;
% % y(1)= 0;
% % for k=1:100
% u(k)= sin(2*pi*k/25)+sin(2*pi*k/10);
% f(k)= u(k).^3;
% y(k+1)= y(k)/(1+y(k).^2)+f(k);
% end
% % p= [u(1:100);y(1:100)];
% t= [y(2:101)];
% net= newff(minmax(p),[20,20,1],,'trainlm','learngdm','msereg');
% [net,tr] = train(net,p,t);
% % % z= zeros(1,100);
% q= [u(1:100);y(1:100)];
% nety= sim(net,q);
% figure;
% plot(1:100,y(1:100),'b',2:101,nety(1:100),'r');
% legend('系統輸出','系統辨識');
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...
神經網路簡介 多層神經網路
如上圖所示,該神經網路有三層。我們標記第一層 也就是輸入層 為a 1 第一層與第二層連線權重為w 1 然後第一層輸入與第一層權重的線性和為z 1 第一層神經元個數為n 1 並依次標記剩餘網路層。可以看出,存在 z l j i 1 n l a l i w l i,j a l w l j a l 1 f...