我們依舊以mnist手寫字型資料集,來看看我們如何使用tensorflow來實現mlp。
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("mnist_data/", one_hot=true)
資料情況
我們通過下面**看看資料的情況:
之前我們使用過keras進行訓練,只需要建立乙個model,然後add加入神經網路層。tensorflow是要複雜很多,那我們一步步構建我們的模型吧。
def layer(output_dim,input_dim,inputs, activation=none):
w = tf.variable(tf.random_normal([input_dim, output_dim]))
b = tf.variable(tf.random_normal([1, output_dim]))
xwb = tf.matmul(inputs, w) + b
if activation is none:
outputs = xwb
else:
outputs = activation(xwb)
return outputs
x = tf.placeholder("float", [none, 784])
h1=layer(output_dim=256,input_dim=784,
inputs=x ,activation=tf.nn.relu)
y_predict=layer(output_dim=10,input_dim=256,
inputs=h1,activation=none)
定義損失函式
這裡我們需要自己定義函式,並進行優化處理。
y_label = tf.placeholder("float", [none, 10])
loss_function = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits
(logits=y_predict ,
labels=y_label))
optimizer = tf.train.adamoptimizer(learning_rate=0.001) \
.minimize(loss_function)
準確性評價correct_prediction = tf.equal(tf.argmax(y_label , 1),
tf.argmax(y_predict, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
訓練
訓練我們定義***。
測試加**
TensorFlow 深度學習筆記
google 深度學習筆記 經常總結是個好習慣,筆記目錄奉上。歡迎star,有問題可以到issue區討論 官方教程位址 最近tensorflow團隊出了乙個model專案,和這個課程無關,但是可以參考 框架 tensorflow 谷歌出品的基於python的深度學習工具集 工具 ipython,py...
TensorFlow深度學習框架
tensorflow支援python和c 兩種程式語言,再複雜的多層神經網路模型都可以用python來實現,如果業務使用其他程式設計也不用擔心,使用跨語言的grpc或者http服務也可以訪問使用tensorflow訓練好的智慧型模型。tensorflow 是乙個採用資料流圖 data flow gr...
深度學習 初識TensorFlow
深度學習使用場景 影象理解 語音識別 自然語言處理 機器自主 無人駕駛 深度學習,如深度神經網路 卷積神經網路和遞迴神經網路已被應用計算機視覺 語音識別 自然語言處理 音訊識別與生物資訊學等領域並取得了很好的效果。深度學習在人工智慧領域的地位 深度學習框架 google brain計畫產物 應用於a...