固定尺度特徵提取
如圖1 一般為共享權重的多分支網路(每個影象乙個分支),輸出一特徵向量來描述乙個畫素對應path區域的特徵。通常由卷積層、空間規範層、池化層和 relu 組成。提取的尺度大小由每層中使用的卷積濾波器的大小以及卷積層和池化層的數量控制。
一些技巧:
(1) 為了在增加網路感受野的同時降低計算成本,使用 dilated convolutions 。
(2) 為了簡化網路的訓練,residual networks 替代 fully convolutional networks。
下表總結了各種方法的詳細結構(層數、濾波器大小和步長)以及它們產生的特徵大小。
多尺度特徵提取
如圖 2,向網路提供不同大小的patch,這些patch以同一畫素為中心,或者通過使用中間層計算的特徵來實現。
根據輸入影象的特徵計算匹配得分形成 3d 代價卷 (disparity space image) , 大小為 w×h
×(nd
+1)w \times h \times (n_+1)
w×h×(n
d+1
) , ndn_
nd 為可能的最大視差值。計算匹配代價兩種方式。圖 3 顯示了主要的相似性計算體系結構
用距離算(上圖左邊)
l 2l_
l2 距離,the cosine distance,the (normalized) correlation distance
用相似性學習網路算(上圖右邊)
一、聚合特徵
法 1: 拼接左右特徵圖
法 2: 採用池化層聚合
法 2 相比法 1 ,不增加維度從而減輕訓練難度。改變輸入數量不需重訓網路(適用於多檢視匹配,尤其是處理任意數量的輸入影象以及執行時的影象數量可能與訓練時的影象數不同時)。池化可確保結果與輸入網路的影象順序不變。
二、計算相似性
法 1: 全連線網路
輸出特徵向量匹配的概率
法 2: 卷積網路
聚合特徵進一步處理,輸出匹配得分(correlation layers 的相似性) 或匹配特徵。
常用最大池化,可在空間變換中保持不變,還擴大了 cnn 的接收域,而不增加參數量。 缺點是網路會丟失精細資訊。為了克服這一限制,引入金字塔池化。
三、聚合代價卷 (
multiview stereo methods 需要 。
成本代價卷規範化
agrmin/argmax 操作無法產生子畫素精度,且無法通過反向傳播進行訓練。
所以用soft argmin。當分布是單模態和對稱的時,用亞畫素 map 方法。
目標(1)提高估計差異/深度圖的解析度(2)細化精細細節的重建(3)完善深度/視差。下圖為如何使用深度學習實現優化的不同方法。
輸入可能為 (1) 視差圖 (2) 視差圖與縮放到相同解析度的參考圖拼接 (3) 初步估計的差值圖、成本量和重建誤差 (4) 初始視差圖和右圖warp後的檢視 (5) 視差圖與參考圖的特徵圖拼接。
自下而上的方法
思路1: 類似滑動視窗的方式執行。 估計patch中心的精細深度
思路2: 從不完整的深度圖開始,並使用各向異性擴散將已知深度傳播到缺少深度的區域。
自上而下的方法
思路1:解碼器,由非池化單元組成擴充套件輸入解析度
思路2:編碼解碼網路,編碼器是對映輸入到乙個潛在的空間,解碼器從潛在變數**高解析度對映。
引導式優化
思路1: 分三步進行 1.檢測不正確的初始估計值 2.替換不正確的lablel 3.通過**與其之間的殘餘校正來改進更新的標籤
利用其它線索
雙流 cnn利用深度圖來優化正常估計的質量,用法線圖來優化深度估計的質量。
3 第一類方法 不同模組如何使用
深度學習架構取代手工進行特徵和相似性計算。特徵提取模組為具有共享權重的多分支網路實現。然後,使用以下功能進行匹配 1.固定相關層 卷積實現 2.全連線神經網路產生匹配得分 3.卷積網路後加relu 使用卷積或全連線網路能從資料中學習適當的相似性度量,而不是在開始時強加乙個相關層。前者準確但慢 cnn...
Python 函式是第一類物件
在很多資料中,經常會看到這樣一句話 python 中的函式是第一類物件 這裡所說的第一類物件,其實是指函式作為乙個物件,與其他物件具有相同的地位。關於這一點,guido 曾提過 first class everything 他對 python 的乙個發展目標就是所有的物件都是第一類物件。也就是說,所...
Python 函式的第一類物件 使用
函式的第一類物件及使用 第一類物件 特殊點 可以當做值被賦值給變數 def func print 1 print func a func a 2.可以當做元素存放在容器中 def func print 1 lst func,func,func for i in lst i 3.函式名可以當做函式的引...