卷積運算的im2col

2021-10-19 09:00:39 字數 1491 閱讀 1436

#include

#include

#include

using namespace std;

typedef

double dtype;

void

kernel_reshape

(dtype* weight_in,dtype* weight_out,

int k,

int c,

int n)

//n*k*k*c->(k*k*c)*n

void

im2col

(dtype* im,dtype* mat,

int c,

int h,

int w,

int s,

int k)

return;}

intmain()

}//print mat

cout<<

"this is matrix"

int i=

0;i<3*

3;i++

)for

(int j=

0;j<3*

3*3;j++

)kernel_reshape

(wt,weight,3,

3,4)

;//print wt before reshape

cout<<

"wt before:"

int i=

0;i<

4;i++

)for

(int j=

0;j<3*

3*3;j++

)//print wt after reshape

cout<<

"wt after:"

int i=

0;i<3*

3*3;i++

)for

(int j=

0;j<

4;j++

)system

("pause");

return0;

}

通過上述**,將n∗k

∗k∗c

n*k*k*c

n∗k∗k∗

c的卷積核轉化為(k∗

k∗c)

∗n

(k*k*c)*n

(k∗k∗c

)∗n的權重矩陣,將h∗w

∗c

h*w*c

h∗w∗

c的輸入影象轉化為(ho

ut∗w

out)

∗(k∗

k∗c)

(hout*wout)*(k*k*c)

(hout∗

wout

)∗(k

∗k∗c

)的畫素矩陣,那麼原先的卷積就可以轉化為畫素矩陣和權重矩陣的乘法來處理,而針對矩陣乘法的優化方法已經有了非常多的研究,因此im2col是乙個加速卷積計算非常有效的方法。

卷積神經網路重要的輔助函式im2col

toc 卷積神經網路重要的輔助函式 im2col 卷積神經網路裡的一重要步驟需要把多維的資料扁平化成一行一行組成矩陣,然後可以快速的跟濾波器權重和偏置進行矩陣點積運算。這個步驟由 im2col 函式實現。雖然大部分的框架都提供了這個函式,我認為非常值得去花點時間去弄明白這個函式是怎麼樣實現的,至少它...

caffe原始碼解析 im2col

im2col這個函式特別棒!為啥?因為它讓卷積變得簡單,他將卷積操作轉變為矩陣乘法,對比發現全連線層的實質就是矩陣乘法,所以這個函式使得卷積層的很多操作只需要仿照全連線層就可以了。下面主要介紹一下這兩個函式 im2col cpu,將輸入feature map轉變為矩陣 col2im cpu,將輸出的...

面試題 實現im2col

實際上在一些深度學習框架的底層,當實現conv2d運算時,是將conv轉化為im2col和gemm來進行運算的 比如caffe和mxnet 之前面試的時候就被問到怎麼實現im2col。img2col是將img和kernel對應的那一塊鋪開成一行,然後將kernel鋪成一列,兩者進行矩陣乘法運算,這樣...