8 #基於seed產生隨機數
9 rdm = np.random.randomstate(seed)
10 #隨機數返回32行2列的矩陣 表示32組 體積和重量 作為輸入資料集
11 x = rdm.rand(32,2)
39 print "w1:\n", sess.run(w1)
40 print "w2:\n", sess.run(w2)
41 print "\n"
steps = 3000
45 for i in range(steps):
46 start = (i*batch_size) % 32
47 end = start + batch_size
48 sess.run(train_step, feed_dict=)
49 if i % 500 == 0: 每500次
50 total_loss = sess.run(loss_mse, feed_dict=)
51 print("after %d training step(s), loss_mse on all data is %g" % (i, total_loss))
#coding:utf-5
2 #0匯入模組,生成模擬資料集。
3 import tensorflow as tf
4 import numpy as np
5 batch_size = 8
6 seed = 23455
7 8 #基於seed產生隨機數
9 rdm = np.random.randomstate(seed)
10 #隨機數返回32行2列的矩陣 表示32組 體積和重量 作為輸入資料集
11 x = rdm.rand(32,2)
12 #從x這個32行2列的矩陣中 取出一行 判斷如果和小於1 給y賦值1 如果和不小於1 給y> 賦值0
13 #作為輸入資料集的標籤(正確答案)
14 y_ = [[int(x0 + x1 < 1)] for (x0, x1) in x]
15 print "x:\n",x
16 print "y_:\n",y_
17 18 #1定義神經網路的輸入、引數和輸出,定義前向傳播過程。
19 x = tf.placeholder(tf.float32, shape=(none, 2))
20 y_= tf.placeholder(tf.float32, shape=(none, 1))
21 22 w1= tf.variable(tf.random_normal([2, 3], stddev=1, seed=1))
w2= tf.variable(tf.random_normal([3, 1], stddev=1, seed=1))
24 25 a = tf.matmul(x, w1)
26 y = tf.matmul(a, w2)
27 28 #2定義損失函式及反向傳播方法。
29 loss_mse = tf.reduce_mean(tf.square(y-y_))
30 train_step = tf.train.gradientdescentoptimizer(0.001).minimize(loss_mse)
31 #train_step = tf.train.momentumoptimizer(0.001,0.9).minimize(loss_mse)
32 #train_step = tf.train.adamoptimizer(0.001).minimize(loss_mse)
33 34 #3生成會話,訓練steps輪
35 with tf.session() as sess:
36 init_op = tf.global_variables_initializer()
37 sess.run(init_op)
38 # 輸出目前(未經訓練)的引數取值。
39 print "w1:\n", sess.run(w1)
40 print "w2:\n", sess.run(w2)
41 print "\n"
42 43 # 訓練模型。
steps = 3000
45 for i in range(steps):
46 start = (i*batch_size) % 32
47 end = start + batch_size
48 sess.run(train_step, feed_dict=)
49 if i % 500 == 0:
50 total_loss = sess.run(loss_mse, feed_dict=)
51 print("after %d training step(s), loss_mse on all data is %g" % (i, total_loss))
52 53 # 輸出訓練後的引數取值。
54 print "\n"
55 print "w1:\n", sess.run(w1)
56 print "w2:\n", sess.run(w2)
57
tf 神經網路的簡單搭建
import tensorflow as tf import numpy as np defadd layer inputs,in size,out size,activation function none weights tf.variable tf.random normal in size,...
區塊鏈北大課程總結(課程2 資料結構)
位元幣中最重要的乙個資料結構就是 區塊鏈 what s block chain?block chain is a chain using hash pointer.1.區塊鏈跟位元幣的區別 聯絡?answer 區塊鏈是技術 思想,可以運用到很多場景 而位元幣是區塊鏈的第乙個落地應用。也就是說,區塊鏈...
學習筆記TF011 多層神經網路
線性回歸 對數機率回歸模型,本質上是單個神經元。計算輸入特徵加權和。偏置視為每個樣本輸入特徵為1權重,計算特徵線性組合。啟用 傳遞 函式 計算輸出。線性回歸,恒等式 值不變 對數機率回歸,sigmoid。輸入 權重 求和 傳遞 輸出。softmax分類含c個神經元,每個神經元對應乙個輸出類別。xor...