看到科學網上幾篇關於卷積的博文,也頗為受益。的確,卷積是乙個極為重要的運算,其定義事實上是自然的。但由於我們教材中過於拘泥於形式,從而使得學生感覺這是個天上掉下來的東西。我第一次接觸卷積之時便有此感覺。不過,在後期逐漸接觸之中,形成了一些自己的淺見,並在課堂之上經常提起。僅記於此,以為交流之便宜。
首先,卷積的定義是如何而來?事實上,卷積命名讓人有些疏離之感。但是,倘若我們將其稱之為「加權平均積」,那便容易接受的多。的確,卷積的離散形式便是人人會用的加權平均,而連續形式則可考慮為對連續函式的加權平均。假如我們觀測或計算出一組資料。但資料由於受噪音的汙染並不光滑,我們希望對其進行人工處理。那麼,最簡單的方法就是加權平均。例如,我們想對資料x_j進行修正,可加權平均為
w/2*x_+(1-w)x_j+w/2 *x_。
此處,w為選擇的權重,如果可選擇0.1等等。
這裡實際上是用兩邊的資料對中間的資料進行了一點修正。上面的公式,實際上是兩個序列在做離散卷積,其中乙個序列是
......0,0,w/2,1-w,w/2,0,0......,
另乙個序列是
.....,x_1,x_2,x_3,......
將上述簡單的思想推而廣之,便是一般的卷積。若把序列換為函式,則就是我們通常卷積的定義。這時候,你可以考慮為乙個函式對另外乙個函式做加權平均。不過,乙個扮演的是權重角色,另乙個則扮演被平均的角色。
那麼,卷積為什麼重要?猶如乘積無處不在,卷積也是無處不在的。究其原因就便是:卷積是頻域上的乘積!
但凡對fourier變換有些了解,便知道乙個函式可從兩個方面來看:時域和頻域。fourier變換宛如西遊記中的照妖鏡,任何函式在其面前都會展現出另外一面。所以,很多時候我們如果對乙個函式看不清楚,那就在照妖鏡裡看一下,做一下fourier變換,便會豁然開朗。而函式的性質,經過fourier變換之後,也會有與之相對應的性質。例如,函式的光滑性經過fourier變換後,便是其在無窮遠處趨向於0的速度。那麼,函式的乘積經過fourier變換後,便是卷積!因此,卷積實際上是乘積的另外一面,不過這一面需要借助照妖鏡才可以看到,所以讓我們感覺有些陌生。卷積,fourier變換與乘積是緊密聯絡在一起的。因此:
有卷積的地方,便會有fourier變換;有fourier變換的地方,便會有卷積!
想想fourier變換的應用範圍,便不難理解卷積的重要。
說了半天,我們的學生,甚至於數學專業的大學畢業生,為什麼會對卷積感覺莫測與神奇呢?我在以前的博文裡面提過,我們大學的數學教育似乎比較輕視fourier變換。事實上,我們承襲了中學數學教育的傳統,喜歡在技巧性強的地方大做文章。高等數學裡面,兩個地方學生花費時間甚多:一是中值定理,一是不定積分。因為這兩處最容易出現技巧性強的題目。但是,對於fourier變換這種帶有新思想的地方卻著力不足。就像我前面所說:有卷積的地方,便會有fourier變換。也就不難理解,學生對卷積陌生的根本原因是教學方面對fourier變換的輕視。
TensorFlow 卷積到底是什麼?
卷積是對兩個實函式的一種數 算。例如 我們用乙個雷射感測器來追蹤一艘宇宙飛船的位置 雷射感測器給出了乙個單獨的輸入x t x t x t 表示飛船在時刻t tt的位置 這就意味值我們可以在任意的時刻從感測器中讀出飛船的位置 那麼,現在我們的感測器受到了一定程度的雜訊干擾。為了降低飛船位置的低雜訊估計...
深度學習是什麼?幾種神經卷積網路
opencv3與tensorflow的關係,各有什麼有優缺點?opencv是計算機視覺庫,tensorflow是深度學習框架。opencv包含了大量的影象處理和計算機視覺的演算法,但是在機器學習方面明顯不足,ml模組只有svm,mlp,knn等有限的幾種演算法。dnn模組也是呼叫別的框架。tenso...
什麼是卷積?
解析 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為乙個濾波器,即帶著一組固定權重...