在影象處理和神經網路中經常出現的乙個詞,卷積核
那到底什麼是卷積呢?卷積為什麼可以提取特徵或者檢測邊緣呢?我們一步一步慢慢看。
首先,如圖,卷積對於離散的點來說就是兩個矩陣對應位置相乘再相加的和;
也就是說卷積只是數學中的乙個叫法,並不是什麼高深語言;
那為什卷積能夠提取特徵呢?
先看模板的理解:
乙個數學上的二階導數經過我們的推導最後可以變成乙個矩陣的模板;
也就是說其實卷積的提取原理就是相當於我們做一系列的數學變化,將求導,拉普拉斯變換等數學公式來近似變換成我們的卷積的樣子;這就是為什麼卷積有這麼多作用了。
如果還沒有理解,可參考我前面講解的博文,看一遍基本就理解什麼是卷積了;
什麼是卷積?
解析 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為乙個濾波器,即帶著一組固定權重...
什麼是卷積?
解析 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為乙個濾波器,即帶著一組固定權重...
什麼是卷積核?
卷積核的空間是對稱的。如果存在乙個卷積核a,那麼一定存在另外乙個卷積核b,使得b的轉置就是a.大部分卷積核是奇數的,為啥?奇數相對於偶數,有中心點,對邊沿 對線條更加敏感,可以更有效的提取邊沿資訊。偶數也可以使用,但是效率比奇數低。在數以萬計或億計的計算過程中,每個卷積核差一點,累計的效率就會差很多...