mnist是在機器學習領域中的乙個經典問題。為了學習機器學習和tensorflow庫的使用,使用tf構造乙個softmax回歸網路模型去識別手寫數字。以下內容請參考tensorflow中文社群(
1)mnist介紹
2)softmax回歸介紹
3)回歸模型的訓練和評估
具體**如下:
"""
分類物件:mnist手寫數字識別
分類方法:使用乙個2層nn,即乙個非線性變換來識別
input ------------>output
784d softmax 10d
"""import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data
# loading mnist data
mnist = input_data.read_data_sets('mnist_data',one_hot=true)
defadd_layer
(inputs,in_size,out_size,activation_function=none):
weights = tf.variable(tf.random_normal([in_size, out_size]), name='w')
biases = tf.variable(tf.zeros([1, out_size]) + 0.1, name='b')
wx_plus_b = tf.matmul(inputs, weights) + biases
if activation_function is
none: # 如何啟用函式為空,則是線性函式
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
defcompute_accuracy
(vxs,vys):
global prediction
y_pre = sess.run(prediction,feed_dict=)
err = tf.equal(tf.argmax(y_pre,1),tf.argmax(vys,1))
acc = tf.reduce_mean(tf.cast(err,tf.float32))
result = sess.run(acc,feed_dict=)
return result
# define placeholder for inputs to network
xs = tf.placeholder(tf.float32,[none,784]) #28*28
ys = tf.placeholder(tf.float32,[none,10])
# add output layer
prediction = add_layer(xs,784,10,activation_function=tf.nn.softmax)
# the error between prediction and real data
loss = tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction),
reduction_indices=[1]))
train_step = tf.train.gradientdescentoptimizer(0.5).minimize(loss)
#important step
sess = tf.session()
sess.run(tf.global_variables_initializer()) #tf.initialize_all_variables在2017-03-02之後刪除,改為global_variables_initializer
plt.figure()
plt.axes([0,10000,0,1])
plt.ion()
batch_size = 100
for i in range(10000):
batch_xs,batch_ys = mnist.train.next_batch(batch_size)
sess.run(train_step,feed_dict=)
if i%50==0:
acc =compute_accuracy(mnist.test.images,
mnist.test.labels)
print(acc)
plt.plot(i,acc,'b.-')
plt.pause(0.00000001)
plt.ioff()
plt.show()
Softmax回歸練習
整個流程包括以下四部分 1 定義演算法公式,也就是神經網路的forward時的計算 y softmax w.tx b 2 定義損失函式 h y y log y 並制定優化器 梯度下降 3 迭代的對資料進行訓練 4 在測試集或驗證集上對準確率進行評測 import tensorflow as tf 匯...
SoftMax回歸詳解
損失函式 梯度下降法求引數 omega b bb 實現與 logistic 回歸的關係 重點 關係 求導的關係 重點 from sklearn import datasets import numpy as np iris datasets.load iris 載入鳶尾花資料集 x iris dat...
線性回歸與softmax回歸的區別
線性回歸是一種回歸演算法,根據當前資料去學習直線的兩個引數。可以用輸入特徵維度為2輸出為1的單層神經網路來實現。線性回歸模型適 於輸出為連續值的情景 softmax回歸,是一種分類方法,模型輸出可以是 個 像影象類別這樣的離散值。對於這樣的離散值 問題,我們可以使 諸如softmax 回歸在內的 分...