每秒處理影象的幀數;每秒浮點運算次數、每秒峰值速度。
10億次/每秒是衡量處理器計算能力的指標單位
roi pooling
* 根據輸入image,將roi對映到feature map對應位置;
* 將對映後的區域劃分為相同大小的sections(sections數量與輸出的維度相同);
* 對每個sections進行max pooling操作;
(2)採用卷積進行檢測
(3)設定先驗框
ssd v2
2、三種深度學習的方法
3、sift特徵
4、很全的綜述文章!!建議看
5、一些**
6、深度學習應用
2) 任務聚焦/解耦:通過將任務分解,設計不同的網路結構(或分支)專注於不同的子任務,重新分配網路的學習能力,從而降低原始任務的難度,使網路更加容易訓練。
attention 詳解公示及相關模型
隨機梯度下降(stochastic gradient descent,sgd)
從本質上去看,牛頓法是二階收斂,梯度下降是一階收斂,所以牛頓法就更快。如果更通俗地說的話,比如你想找一條最短的路徑走到乙個盆地的最底部,梯度下降法每次只從你當前所處位置選乙個坡度最大的方向走一步,牛頓法在選擇方向時,不僅會考慮坡度是否夠大,還會考慮你走了一步之後,坡度是否會變得更大。所以,可以說牛頓法比梯度下降法看得更遠一點,能更快地走到最底部。(牛頓法目光更加長遠,所以少走彎路;相對而言,梯度下降法只考慮了區域性的最優,沒有全域性思想。)
根據wiki上的解釋,從幾何上說,牛頓法就是用乙個二次曲面去擬合你當前所處位置的區域性曲面,而梯度下降法是用乙個平面去擬合當前的區域性曲面,通常情況下,二次曲面的擬合會比平面更好,所以牛頓法選擇的下降路徑會更符合真實的最優下降路徑。
* 既然有這麼多方法,為什麼很多**裡面還是用的sgd?需要注意的是,其他的方法在計算效能和收斂方面確實優秀很多,有的甚至不用認為干涉,它會自適應的調整引數,但是,在良好的調參情況下,sgd收斂到的最優解一般是最好的
深度學習 計算機視覺面試常考知識點
知乎 batch normalization原理與實戰 csdn 常用啟用函式 激勵函式 理解與總結 卷積神經網路系列之softmax loss對輸入的求導推導 在機器學習尤其是深度學習中,softmax是個非常常用而且比較重要的函式,尤其在多分類的場景中使用廣泛。他把一些輸入映 射為0 1之間的實...
計算機視覺 深度學習基礎
與神經網路的區別 傳統一般三層以內,深度可達上千層 傳統通常是全連線,深度形式多樣 共享權值,跨層的反饋等 目標函式 均方誤差 交叉熵 交叉熵能在深度學習模型下快速提高精度 為了避免交叉熵出現0,使用softmax層來突出最大值並轉換成概率 激勵函式 sigmoid relu 當神經元一層層疊加之後...
計算機視覺學習總結
計算機視覺 工具 opencv caffe tensorflow python c opencv演算法精解 基於python與c 關注 斯坦福李飛飛 深度學習計算機視覺 計算機視覺領域的一些牛人部落格,超有實力的研究機構等的 鏈結 annotated computer vision bibliogr...