習題(
推廣的lvq).
設競爭網路的底層為輸入源節點,競爭層的神經元y和底層源節點j的連線權值為wyj。對於c
類分類問題, 每個競爭神經元屬於類別c的概率為
p(yîc)=exp(acy)/(åcexp(acy)), c=1,2,…c.
那麼輸入向量x,它的屬於類別c的概率為
p(xîc)= åy p(yîc)p(y|x), c=1,2,…c.
其中使用最簡單的假設
p(y|x)= exp(-g ||wy-x||2)/(åyexp(-g ||wy-x||2)).
對於給定的標定資料集
(x1,c1), …., (xm,cm)
和未標定的資料集
xm+1, …, xn ,
我們分別假設它們的期望的類別分布為:
1) 對於標定資料,期望類別分布
q(xiîci)=a; 當c¹ci , q(xiîc)=(1-a)/(c-1),顯然a>1/c;
2) 對於未標定資料,期望的類別分布為
q(xiîc)=1/c, c=1,2,…c。
那麼,我們優化的目標就是關於權值wy和 acy對每個資料x的網路輸出類別概率和期望類別分布概率的kl
差最小化,即
min åi åc q(xiîc) log[q(xiîc)/p(xiîc)]
試推導上述推廣的lvq
的學習演算法,並實現推導的演算法。
在mnist(http://yann.lecun.com/exdb/mnist/)資料集中選擇幾類手寫體數字進行模式分類的問題。討論超引數g和a的取值對分類能力影響。
上面部分符號丟失,正確文件如下:
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...
神經網路簡介 多層神經網路
如上圖所示,該神經網路有三層。我們標記第一層 也就是輸入層 為a 1 第一層與第二層連線權重為w 1 然後第一層輸入與第一層權重的線性和為z 1 第一層神經元個數為n 1 並依次標記剩餘網路層。可以看出,存在 z l j i 1 n l a l i w l i,j a l w l j a l 1 f...