通俗理解卷積的概念:
卷積的重要的物理意義是:乙個函式(如:單位響應)在另乙個函式(如:輸入訊號)上的加權疊加。
先解釋一下什麼是加權:
通俗點就舉列子把,
統計學認為,在統計中計算平均數等指標時,對各個變數值具有權衡輕重作用的數值就稱為權數.
還是舉個例子吧
求下列數串的平均數
3、4、3、3、3、2、4、4、3、3、
一般求法為(3+4+3+3+3+2+4+4+3+3)/10=3.2
加權求法為(6*3+3*4+2)/10=3.2
其中3出現6次,4出現2次,2出現1次.6、2、1就叫權數。這種方法舊叫加權法。
它們每個數都有一些相同數,表示為:k1,k2,k3.......kn;
加權平均的公式是:(k1p1+k2p2+k3p3+......knpn)/(k1+k2+k3+.....kn)
加權就是把所有相同的數字的個數乘以數字,然後除以數字的總個數。
疊加:
其實就是相加,比如說就看看足球比賽一樣,開場之後,一方的足球隊員需要向另一方的挨個握手,如果是李阿芳正營的同志互相握手,那麼對於每乙個隊員來說,都握手的次數是對方隊員的個數,那麼問,一方的隊員總工握手多少次,就是場上的11個人疊加即相加:
第乙個隊員:
1+1+1+1+1+1+1+1+1+1+1=11;
第二個隊員:
1+1+1+1+1+1+1+1+1+1+1=11;
第十乙個隊員:
1+1+1+1+1+1+1+1+1+1+1=11;
那麼每乙個隊員握手的次數:
【11,11,11,11,11,11,11,11,11,11,11】
相對於卷積就是1x1+1x1......+1x1+1x1=11;
這個例子相當於是離散卷積的例子。其實連續卷積的例子是從負無窮到正無窮對原函式進行積分求和,也就是求重合的面積。
卷積的卷是什麼意思?
大致意思就是把什麼卷起來,卷其實是乙個動作詞。
卷東西一定要移動,我們早上吃的煎餅果子就是看著師傅把一張很波的煎餅卷起來,等於說是一點一點的把整個面累加起來,卷積也是這樣就是把一點一點的重合面積,先相乘也就是積,累加起來。看起來是最後一塊東西。
只是不同位置上的資料相乘得到的結果,乘法和加法一直,除法和減法一直。
下面看乙個列子:
卷積操作的基礎知識
tensorflow初級教程 在tensorflow中該api的功能是進行的是卷積操作,那是如何執行的呢?卷積操作的目的是提取影象的特徵。都提取什麼特種呢?根據不同的卷積核 不同的計算方式,會得到不同的特徵提取圖。圖 1 左邊是相同的一整圖,通過三次卷積操作,得到了三張特徵圖,分別是銳化 浮雕 輪廓...
卷積網路一些小知識點整理 tf
1 定義卷積層的權重時候 def weight variable shape initial tf.truncated normal shape,stddev 0.1 return tf.variable initial w conv1 weight variable 5,5,1,32 通俗說法 5...
CUDA卷積加速 一
推出這個系列的目的呢,主要是因為cuda學習的乙個主要用途就是對影象處理進行加速,而處理影象的過程中經常要用到卷積。卷積的計算有多種形式,本系列主要研究的是二維矩陣的卷積計算。從最原始的計算方法 就是本科教科書上的那種 再到優化後的適用於大型資料的演算法,均提供並行化的設計思路。考慮到機器學習很火,...