# 神經網路的輸出
logits = tf.constant(
[3.0
,1.0,-
3.0]
)# 正確的標籤
y_ = tf.constant(
[1.0
,0.0
,0.0])
# 神經網路的輸出經過 softmax 變換得到每個類別的概率
y = tf.nn.softmax(logits)
>>
> array(
[0.87887824
,0.11894324
,0.00217852
], dtype=float32)
)
# 神經網路的輸出
logits = tf.constant(
[3.0
,1.0,-
3.0]
)# 正確的標籤
y_ = tf.constant(
[1.0
,0.0
,0.0])
# 神經網路的輸出經過 softmax 變換得到每個類別的概率
y = tf.nn.softmax(logits)
>>
> array(
[0.87887824
,0.11894324
,0.00217852
], dtype=float32)
)# 取得其中最大的 2 個元素的值和索引
y_top_2 = tf.nn.top_k(y,2)
>>
> topkv2(values=array(
[0.87887824
,0.11894324
], dtype=float32)
, indices=array([0
,1], dtype=int32)
)y_top_2.values
>>
> array(
[0.87887824
,0.11894324
], dtype=float32)
y_top_2.indices
>>
> array([0
,1], dtype=int32)
回歸問題的決策函式:前向傳播過程中最後一層神經網路的輸出結果即為網路的**結果
1、
2、tensorflow python api 翻譯(nn)
深度學習9 TensorFlow常見報錯及解決方法
在使用tensorflow時,經常會看到這樣那樣的報錯,這裡記錄一下,免得每次看到都得去網上搜。這些問題中,很多是版本問題導致的。1.argumenterror argument epoch conflicting option string epoch 報錯原因 中有解釋如下 因為你沒有真正訓練起...
Tensorflow中的Lazy load問題
用tensorflow訓練或者inference模型的時候,有時候會遇到執行越來越慢,最終記憶體被佔滿,導致電腦宕機的問題,我們稱之為記憶體溢位。出現這種問題很可能是因為在乙個session中,graph迴圈建立重複的節點所導致的lazy load問題。舉個例子,用tensorflow迴圈做多次加法...
tensorflow中的函式
執行當前tensor的run 操作 a tf.variable tf.ones 10 with tf.session as sess tf.global variables initializer run b sess.run a 1 b a eval 2 print b 中的 1 2 行的功能一樣...