0513
感受野衡量某一層的feature map 中的某乙個cell 對應到原圖輸入的響應區域大小
如圖 輸入層11*11 沒有zero-padding
經過第一層5*5 conv 得到feature map 為7*7
經過第二層7*7conv 得到feature map 為1*1
所以可以知道 假如這個1*1是最後整個feature map 中的其中乙個cell 根據上面的話,可以知道它對應的感受野就為11*11,也就是對應輸入影象的響應區域大小
語義分割其實就是對最後的feature map 進行畫素級別的分類,通過感受野響應到輸入影象,根據周圍的資訊 去做分類
output_field_size 是通過輸入計算得到的最後的feature map 大小
input_field_size 是通過輸出的feature map計算對應的感受野
傳統的影象檢索都是 手工提取影象特徵,然後扔到svm中進行處理,svm需要特徵向量作為輸入
以圖搜圖技術,
也稱為基於內容的影象檢索 content-based image retrieval (cbir) framework
將大量的經過特徵提取後,儲存進database,然後對查詢的影象也進行feature extraction ,然後去database中進行相似度比對,按相似度大小返回查詢影象
但是,用在工業屆中,如何進行實時的響應 是乙個非常重要的點
優化後
所以會有一種索引技術在裡面,雜湊的索引技術,將提取的特徵向量,比如是2048維向量對映到子空間中,比如對映成128維, 並且這128維中 存放的是 不是0就是1 的binary code 我們成為 hash binary code
通過這種技術,轉化為,在128維的二進位制數上進行相似度計算 會大大減小計算量
一是 維度減小 二是通過二進位制的異或操作進行加速
在2048 -----à 128 這中間過程是幾乎不記的代價
準確率上即時可以假如從95% 降低到94% 但是速度上是成百上千倍的提公升
有時候在資料量小的情況下,傳統的機器學習 也會佔優勢
深度學習 需要大量的樣本來 不斷學習 合適的引數 達到更好的acc
包含:位置資訊 關鍵點描述符
local feature區域性特徵運算元
hog sift …….
這些不是機器學習 學習的
是科學家根據統計學,一些梯度等等 科學計算方法 弄出來的
從零開始搭建深度學習環境
開始深度學習調參之路不能沒有乙個趁手的環境 安裝基礎環境 我使用的機器環境是 ubuntu18.04 安裝顯示卡驅動 1.2.按照cuda所需的版本安裝 3.sudo ubuntu drivers autoinstall 安裝pip sudo apt get install python pip 安...
從零開始的深度學習 4
在之前的練習中,解碼器在各個時間步依賴相同的背景變數 context vector 來獲取輸入的序列資訊。當編碼器為迴圈神經網路時,背景變數來自它最終時間步的隱藏狀態。將源序列輸入資訊以迴圈單位狀態編碼,然後將其傳遞給解碼器以生成目標序列。然而這種結構存在著問題,尤其是rnn機制實際中存在長程梯度消...
從零開始學習react
react.createlement tag,content class shoppinglist extends react.component return 我們可以把兩者結合起來,使 react 的 state 成為 唯一資料來源 渲染表單的 react 元件還控制著使用者輸入過程中表單發生的...