競爭學習神經網路原理
生物學原理:
在人眼的視網膜中存在一種側抑制現象,即乙個神經細胞興奮後,會對周圍的神經細胞產生抑制作用。這種側抑制使神經細胞之間呈現出競爭,開始可能多個細胞同時興奮,但興奮程度最強的神經細胞對周圍的神經細胞的抑制作用也越強,其結果使周圍神經細胞的興奮度減弱,從而該神經細胞是這次競爭的勝者。
競爭學習神經網路:
如下圖為乙個競爭學習神經網路的結構:
其中xi(i=1,2...n)為輸入模式,wij為m行n列的權值矩陣矩陣,cj(j=1,2,3...m)為輸出
在競爭學習策略採用的典型學習規則為勝者為王。該演算法可分為3個步驟:
1.向量歸一化
首先將自組織網路中的當前輸入模式x和權值w1j,w2j,w3j…wnj(j=1,2,3…m)歸一化.
得到x^,wi^(i=1,2,3…n).歸一化方法為:
2.尋找優勝神經元:
當網路得到乙個輸入模式時,競爭層所有的神經元對應的權值向量wj^(i=1,2,3...m)均與x^進行比較,將與x^最為相似的wi^判定為獲勝神經元。測量相似性的方法是對wi^與x^計算歐式距離(或夾角余弦)。
1.歐式距離:
因此要使單位向量的歐式距離最小,只需兩向量的點積最大:
max :wj^*x^(j=1,2,3...m)
3.網路輸出與權值調整:
獲勝神經元的輸出c為1,其餘為0.即為:
oj=1 where wj^*x^ is max else 0
只有獲勝神經元才能調整權值wj^:
wj=wj^+a*(x^-wj^)(調整權值)
wj^=wj/||wj|| (重新歸一化)
式子中 a:[0,1]為學習率,一般其值隨著學習的進展而減小。
步驟3完成後,重複1,2,3,直到a衰減為0
原理:設輸入模式為二維向量,歸一化後其矢端可以認為在單位圓上的點,設競爭層有兩個神經元。歸一化後的w也為單位圓上的點,從輸入到輸出可以看出其大體上分為兩個簇。當向網路輸入x,獲勝的w的方向會不斷調整,最終w會穩定如圖:
從而模式x被分為兩類w1,w2.
以下是github的python源**:
神經網路原理
一 應用情況 神經網路在機器學習中應用比較廣泛,比如函式逼近,模式識別,分類,特徵提取 影象處理等方面。二 原理 1 神經元模型 神經元模型基本上包括多個輸入 類似突觸 這些輸入分別被不同的權值相乘 收到的訊號強度不同 然後被乙個數學函式用來計算決定是否激發神經元。還有乙個函式 也許是不變,就是複製...
神經網路原理
神經網路是一種模擬人腦的神經網路以期能夠實現類人工智慧的機器學習技術。人腦中的神經網路是乙個非常複雜的組織。的大腦中估計有1000億個神經元。神經網路的發展背後的外在原因可以被總結為 更強的計算效能,更多的資料,以及更好的訓練方法。只有滿足這些條件時,神經網路的函式擬合能力才能得已體現。神經元分為三...
BP神經網路原理
一,什麼是bp bp back propagation 網路是1986年由rumelhart和mccelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。bp網路能學習和存貯大量的輸入 輸出模式對映關係,而無需事前揭示描述這種對映關係的數學...