函式:tf.nn.sigmoid_cross_entropy_with_logits(logits, targets, name=none)
說明:此函式是計算logits經過sigmod函式後的交叉熵值(即互熵損失),能幫助你更好的進行分類操作。對於乙個不相互獨立的離散分類任務,這個函式作用是去度量概率誤差。
簡單點就是去度量化。
例項:
1#output 的計算方法:max(x, 0) - x * z + log(1 + exp(-abs(x)) )2#
logits 和 targets 必須有相同的資料型別和資料維度
3 inputdata = tf.variable(np.random.rand(1,3), dtype=np.float32)
4 output = tf.nn.sigmoid_cross_entropy_with_logits(logits = inputdata, labels = [[1.0, 0.0, 0.0]])
5with tf.session() as sess:
6sess.run(tf.global_variables_initializer())
7print
(sess.run(inputdata))
8print (sess.run(output))
輸出:[[ 0.0086241 0.42953941 0.91944432]]
[[ 0.68884444 0.93080473 1.25501657]]
Tensorflow實現LSTM文字分類
最近需要寫乙個神經網路模型來做分類。作為此前沒有實戰過深度學習,只寫過svm之類的,學習過一些理論知識的新手,為了快速上手,第一想法就是找乙個簡單的demo跑通,對整個流程和結構有乙個初步體驗。於是在網上找了乙個tensorflow實戰系列 手把手教你使用lstm進行文字分類 但是教程存在乙個問題,...
Tensorflow 多分類問題
import requests import numpy as np 複製 r requests.get 複製 with open iris.data w as f f.write r.text 複製 import pandas as pd 複製 data pd.read csv iris.data...
tensorflow 分類損失函式問題(有點坑)
tf.nn.softmax cross entropy with logits 記為f1 和 tf.nn.sparse softmax cross entropy with logits 記為f3 以及 tf.nn.softmax cross entropy with logits v2 記為f2 ...