用於分類的代價函式:
神經網路的代價函式一般與線性回歸模型和邏輯回歸模型的代價函式相同,將神經網路用於分類則採用負的對數似然當作其代價函式,對於回歸則採用均方誤差作為代價函式。
代價方程定義為:
注:m為資料集的數量,k為輸出的數量(分類數)。
用於回歸的代價函式:
採用均方誤差損失函式。
————————————————————————————
補充:對於損失函式的選擇,選擇的損失函式能夠評估效果即可,不一定選擇上面的兩種,上面的兩種是一般的選擇,其實也有很多能夠評估效果的其他代價函式,在進行優化時也許會達到更好的效果,需要根據自己的情況進行選擇,以達到更佳的效果。
神經網路學習筆記(2) 代價函式與梯度下降簡介
同樣的,這篇還是純理論,不涉及 部分。有些地方我也沒有深究,所以有可能會有錯誤,如有錯誤,請麻煩指正。公式 參考 結合上篇文章的內容,我們不妨來想一下,在最開始的時候,整個網路是混亂的,那麼我們要怎樣才能找到最合適的權重和偏置呢?由於神經網路是需要學習的,所以學習的過程就是找到最合適的權重和偏置。於...
BP神經網路的函式逼近
給出乙個非線性的函式,建立bp神經網路進行擬合影象,其中隱藏神經元的數目為,可以設定。bp神經網路的函式逼近k 2 x 1 05 8 f 1 sin k pi 2 x 建立bp神經網路結構 隱藏層為5 未訓練引數 n 10 net newff minmax x n,1 trainlm y1 sim ...
用BP神經網路逼近正弦函式
網路中設定輸入層與輸出層均為乙個神經元,並且考慮到正弦函式的值域分布情況,我這一次在輸出層中的啟用函式並沒有使用以前常用的sigmod函式,而是採用了線性函式y x 具體實現 如下所示 clc,clear data 3 0.01 3 xsize size data datasize xsize 2 ...