keras中文文件:
損失函式(或稱目標函式、優化評分函式)是編譯模型時所需的兩個引數之一:
model.compile(loss='mean_squared_error', optimizer='sgd')
from keras import losses
model.compile(loss=losses.mean_squared_error, optimizer='sgd')
你可以傳遞乙個現有的損失函式名,或者乙個 tensorflow/theano 符號函式。 該符號函式為每個資料點返回乙個標量,有以下兩個引數:
實際的優化目標是所有資料點的輸出陣列的平均值。
mean_squared_error
mean_squared_error(y_true, y_pred)
mean_absolute_error
mean_absolute_error(y_true, y_pred)
mean_absolute_percentage_error
mean_absolute_percentage_error(y_true, y_pred)
mean_squared_logarithmic_error
mean_squared_logarithmic_error(y_true, y_pred)
squared_hinge
squared_hinge(y_true, y_pred)
hinge
hinge(y_true, y_pred)
categorical_hinge
categorical_hinge(y_true, y_pred)
logcosh
logcosh(y_true, y_pred)
引數
返回
每個樣本都有乙個標量損失的張量。
categorical_crossentropy
categorical_crossentropy(y_true, y_pred)
from keras.utils.np_utils import to_categorical
categorical_labels = to_categorical(int_labels, num_classes=none)
sparse_categorical_crossentropy
sparse_categorical_crossentropy(y_true, y_pred)
binary_crossentropy
binary_crossentropy(y_true, y_pred)
kullback_leibler_divergence
kullback_leibler_divergence(y_true, y_pred)
poisson
poisson(y_true, y_pred)
cosine_proximity
cosine_proximity(y_true, y_pred)
Keras加權損失函式
ref keras提供的損失函式binary crossentropy和categorical crossentropy沒有加權,如果想實現樣本的不同權重功能有一種策略是對損失函式加權處理。二分加權交叉熵損失 class weightedbinarycrossentropy object def i...
pytorch和keras損失函式區別
學習pytorch首先是要裝pytorch啦!但是這是乙個磨人的小妖精,傳統的用pip可是裝不上的。為此,可以參考我的另一篇部落格,這可是我研究一天的結晶!這篇筆記是 關於機器學習損失函式的,根據不同的應用場景,需要選擇不同的損失函式。線性回歸因為 的數值有具體的意義,所以損失函式一般使用的均方誤差...
keras中損失函式簡要總結
from keras.losses import 以下是正文。方差。差點忘了方差是什麼,丟死人。注重單個巨大偏差。差的絕對值的平均數。平均對待每個偏差。誤差百分數 非負 的平均數。比如50和150對100的誤差百分數都是50。自己感受。對數的方差。會將值先 1再取對數 奇怪。log cosh err...