import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
#載入資料集
mnist=input_data.read_data_sets("mnist_data",one_hot=true)
#批次大小
batch_size=64
#計算乙個週期一共有多少個批次
n_batch=mnist.train.num_examples
with tf.name_scope('input'):
#定義兩個placeholder
x=tf.placeholder(tf.float32,[none,784],name='x-input')
y=tf.placeholder(tf.float32,[none,10],name='y-input')
with tf.name_scope('layer'):
#建立乙個簡單的神經網路:784-10
with tf.name_scope('weights'):
w=tf.variable(tf.truncated_normal([784,10],stddev=0.1))
with tf.name_scope('biases'):
b=tf.variable(tf.zeros([10])+0.1)
with tf.name_scope('wx_plus_b'):
wx_plus_b=tf.matmul(x,w)+b
with tf.name_scope('softmax'):
prediction=tf.nn.softmax(wx_plus_b)
with tf.name_scope('loss'):
#二次代價函式
loss=tf.losses.mean_squared_error(y,prediction)
with tf.name_scope('train'):
#使用梯度下降法
train=tf.train.gradientdescentoptimizer(0.3).minimize(loss)
with tf.name_scope('accuracy'):
with tf.name_scope('correct_prediction'):
#結果存放在乙個布林型列表中
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
with tf.name_scope('accuracy'):
#求準確率
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
with tf.session() as sess:
#變數初始化
sess.run(tf.global_variables_initializer())
writer=tf.summary.filewriter('logs/',sess.graph)
#週期epoch:所有資料訓練一次,就是乙個週期
for epoch in range(21):
for batch in range(n_batch):
#獲取乙個批次的資料和標籤
batch_xs,batch_ys=mnist.train.next_batch(batch_size)
sess.run(train,feed_dict=)
#每訓練乙個週期做一次測試
acc=sess.run(accuracy,feed_dict=)
print("iter "+str(epoch)+",testing accuuracy "+str(acc))
sklearn速度複習 knn
人工生點人工演算法 import matplotlib.pyplot as plt import numpy as np import operator x1 np.array 3,2,1 1類點x座標 y1 np.array 104,100,81 1類點y座標 x2 np.array 101,99...
Tensorflow 學習與複習 Epoch 2
tf.session 和tf.interactivesession 的區別 回答1 唯一的區別在於 tf.interactivesession 載入它自身作為預設構建的session,tensor.eval 和operation.run 取決於預設的session.換句話說 interactives...
計網期末複習
1 以下ip 位址中不屬於私有位址的是 c a 10.10.10.2 b 192.168.10.3 c.172.168.0.4d.10.10.10.1 解析 私有位址 private address 屬於非註冊位址,專門為組織機du構內部使用。zhi 也就是公司或者學校,網咖之類的用的!分類以下表列...