思考:為什麼該演算法有效呢?
三、**
四、參考文獻
bp的全稱是backprojection,即後向投影。它是受cat(computer aided tomography)的啟發而誕生的,是一種經典的時域成像演算法。參考文獻5最早提出了該演算法。其顯著特徵是精確度高,計算量大。另外對雷達航跡沒有特殊要求(直線軌跡、圓軌跡均可),條帶模式、聚束模式都適用。
bp演算法的基本思想:將雷達回波資料反向投影到成像區域的每個畫素,再將每個畫素處的回波進行相干疊加。
一般採用匹配濾波的方式來進行壓縮。
其中的一種方法是在頻域補零後再進行ifft。
將成像區域劃分成網格,最終形成的sar影象中每個畫素代表乙個網格。
計算雷達在每個方位時刻(發射脈衝的時刻)與每個網格點的距離rij,並計算出雙程時延tij(=2*rij/c)。然後在當前方位時刻下採集到的資料中,根據tij找到距離也是rij的資料,我們認為這個網格點在這一方位時刻收到的就是這個資料。
因為距離向取樣率有限,所以並不是每個tij都能找到對應的資料,找不到就只能近似到臨近的值,這就是前面要進行插值的原因。插值的目的是提高精度,使得每個tij都能找到與其時刻更接近的資料。
將每個方位向時刻的資料進行相位補償後再疊加
補償量e^(4jπ
\piπrij/λ
\lambda
λ)以下兩張圖是在其他文章中看到的,放在這裡以供參考。
個人的直觀理解是:距離經過向壓縮後是sinc函式的形式,峰值處對應的是目標位置。由於距離徙動的存在,同乙個點目標在不同方位時刻對應的峰值位置不同。若某點處有目標,則在bp演算法中該點處疊加的每個值都應是峰值,最後形成的影象該點處的值就會很大。而對於沒有目標的點來說,由於每次疊加的都是乙個隨機的值,最後該點處的值就會趨近零。
%根據時延在回波域尋找相應位置並進行成像
f_back=zeros(na,nr);
for ii=1:na
r_ij=sqrt(r.^2+(y-va*ta(ii)).^2);
t_ij=2*r_ij/c;
t_ij=round((t_ij-(2*rmin/c-tr/2))/dtr);
it_ij=(t_ij>0&t_ij<=nr_up);
t_ij=t_ij.*it_ij+nr_up*(1-it_ij);%這一行與上一行**是為了防止後面陣列下標越界
sig_rdta=sig_rdt(ii,:);
sig_rdta(nr_up)=0;
f_back=f_back+sig_rdta(t_ij).*exp(1j*4*pi*r_ij/lamda);
endfigure('name','bp演算法處理後(幅度)');imagesc(abs(f_back));
title('bp演算法處理後(幅度)');xlabel('距離向');ylabel('方位向');
完整**之後可能會補充上。 AI中的BP演算法簡要整理
為學習率,後面乘以的項為loss function j x y 的梯度,負學習率乘以梯度得到引數的增量 更新引數 值得注意的是和大家所熟悉的sgd演算法不同,bgd為最原始的bp演算法,一次輸入整個資料集 dataset 計算梯度。pros cons 公式同bgd,區別在於,sgd的梯度計算一次只用...
BP演算法的推導
bp演算法步驟 1 正向傳播 輸入樣本 輸入層 各隱層 處理 輸出層 注1 若輸出層實際輸出與期望輸出 教師訊號 不符,則轉入2 誤差反向傳播過程 2 誤差反向傳播 輸出誤差 某種形式 隱層 逐層 輸入層 其主要目的是通過將輸出誤差反傳,將誤差分攤給各層所有單元,從而獲得各層單元的誤差訊號,進而修正...
BP演算法的理解
目標 通過計算輸出層和期望值之間的誤差 損失函式 來調整網路引數,從而達到誤差最小。bp演算法的本質 就是通過梯度下降法來優化網路引數。梯度下降法的本質 通過迭代的形式,計算目標函式的最小值對應的引數。目標函式在深度學習和機器學習中就是對應的誤差函式 梯度下降法的形式 泰勒公式 泰勒公式一階導數的形...