課程講義:
首先,自然界中的每一景象都是「continuous」,然而這在計算機的世界觀中是不可接受的。所以必須把模擬訊號進行取樣和量化才能得到影象矩陣,當然了,這一過程產生誤差和丟失資訊也是不可避免的。影象矩陣的每乙個元素都是乙個畫素點(pixel dot,以下畫素點和矩陣元素等價),解析度(resolution, 單位dpi,dots per inch)表示單位面積之內的畫素點個數,當影象矩陣確定時,僅和人眼的直接觀察效果有關。畫素點的內容決定了的型別:
黑白:矩陣元素是0-1binary,0表示黑,1表示白。
灰階:矩陣元素是[0,n],0表示黑,n表示白,共切割為n-1階。
彩色:矩陣元素是[0,n],按照一定的標準(如rgb, lab, hsv, etc.)可以覆蓋常見色域的n-1種顏色
##影象直方圖(histogram)
概念同統計學中的直方圖概念,即:對一定範圍內(如每行、每影象塊、每幅全影象,etc.)的畫素點,按照各個畫素的值進行頻數統計並作圖。
前面我們是通過矩陣的角度理解「影象」的,換個角度,把一幅「影象」看作乙個函式,定義域是全體畫素座標,對映關係是每個畫素座標處對應的畫素值。有了「函式」的抽象,則可以利用訊號與系統的知識對函式進行operate。
濾波器是處理一幅圖獲得另一幅圖的裝置(或者函式、系統等等任何方便理解的名詞都可),文中舉了移動平均和閾值兩種濾波器。其系統函式分別如下:
g (n
,m)=
19∑k
=n−1
n+1∑
l=m−
1m+1
f[k,
l]g(n, m)=\dfrac\sum\limits_^ \sum\limits_^ f[k,l]
g(n,m)
=91
k=n−
1∑n+
1l=
m−1∑
m+1
f[k,
l]g (n
,m)=
1, & f(n, m)\geq a\\ 0, & f(n, m)< a \end\right.
g(n,m)
= \sum_ f(k,l)g(n-k,m-l)
f∗g(n,
m)=∑
l∑k
f(k
,l)g
(n−k
,m−l
)訊號輸入lsi系統進行process的過程可以看作和系統函式進行卷積的過程。值得注意的是,卷積表示式是無窮的,而和計算機處理過程通常是有限的,所以必須考慮邊緣效應(edge effect)。如圖,對f進行九宮格移動平均得到等大的g,其中計算g左上角格時f的邊緣溢位,需要進行擴充套件(pad),即假設溢位區域的值用於計算,padding的方案包括用0pad、邊緣值pad等。
顧名思義,相關是用來描述兩幅影象內容相似度的函式。定義式如下:
r f∗
∗g(k
,l)=
∑m∑n
f(n,
m)g∗
(n−k
,m−l
)=∑m
∑nf(
n+k,
m+l)
g∗(n
,m)=
f(k,
l)∗g
∗(−k
,−l)
r_(k,l)=\sum_ \sum_ f(n,m)g^(n-k,m-l)=\sum_ \sum_ f(n+k,m+l)g^(n,m)=f(k,l)*g^(-k,-l)
rf∗∗g
(k,l
)=m∑
n∑
f(n,
m)g∗
(n−k
,m−l
)=m∑
n∑
f(n+
k,m+
l)g∗
(n,m
)=f(
k,l)
∗g∗(
−k,−
l)上式中g∗g^
g∗表示g的共軛對稱函式。在實值函式中為g本身。
cs231n 2018系列筆記(lecture7)
所有內容 slides位址 1.普通batchnorm公式,請注意維度,後面會用到 2.test時batchnorm公式 均值和方差用train時候的不需要訓練,其他不變 3.全連線層和卷積層的batchnorm 除了第二維其他都為1 4.layer normalization arxiv,2016...
CS224D學習筆記
第二次看了,理解深了一些 2017.7.24 傳統方法 通過統計乙個單詞周圍的單詞的頻率,獲得每個單詞的wordvec,然後通過svd降維,去除較大奇異值的矩陣,把vec長度在25 1000內。缺點是1.單詞很多的時候svd複雜度很高 2.要新增新單詞時很困難,擴充套件性差 深度學習可以部分解決。w...
CS299學習筆記(5)
上述三幅圖展示了,不同假設函式h x h theta x h x 對於同一訓練集的擬合情況。因此,我們在設計假設函式h x h theta x h x 時,不能過分地追求對訓練集的擬合程度,只需其擬合程度達到上述圖中中間圖的擬合程度即可。補充 給定乙個假設空間h hh,乙個假設h hh屬於h hh,...