1**都有注釋。適合初學者理解。__author__ = "
wsx"
2import
tensorflow as tf
3import
numpy as np
4import
matplotlib.pyplot as plt
56 x_data = np.linspace(-0.5,0.5,200)[: , np.newaxis] #
-0.5 --0.5 之間產生200個點 存到後面的2維中
7 noise = np.random.normal(0 ,0.02,x_data.shape)
8 y_data = np.square(x_data) +noise
910 x= tf.placeholder(tf.float32 ,[none ,1]) #
不確定行 和 1列
11 y= tf.placeholder(tf.float32 ,[none ,1])
121314#
---------------------構建神經網路---------------------
1516
#----------------中間層 10 個
17 weights = tf.variable(tf.random_normal([1 ,10]))
18 biases = tf.variable(tf.zeros([1,10]))
19 res = tf.matmul(x , weights) +biases
20 l1= tf.nn.tanh(res) #
啟用函式(雙曲正切函式)
2122
#-------------輸入層乙個神經元 x
2324
#------------輸出層為 y 乙個神經元
25 weights_out = tf.variable(tf.random_normal([10 ,1]))
26 biases_out = tf.variable(tf.zeros([1,1]))
27 res_out = tf.matmul(l1 , weights_out) +biases_out
28 predict =tf.nn.tanh(res_out)
2930
#------------代價函式
31 loss = tf.reduce_mean(tf.square(y -predict))
32 train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss)#
梯度下降法訓練
333435#
定義會話
36with tf.session() as sess:
37sess.run(tf.global_variables_initializer())
38for i in range(2000):
39 sess.run(train_step, feed_dict=)
4041
#獲取**值
42 predict_value = sess.run(predict , feed_dict=)
4344#畫圖
45plt.figure()
46plt.scatter(x_data,y_data)
47 plt.plot(x_data , predict_value ,"r"
)48 plt.show()
例子主要回歸了乙個自定義的函式 y = x2
本例子的網路結構:
搭建步驟:
① 定義圖
② 定義損失函式
③ 定義會話,在會話中執行
④訓練⑤評估
Tensorflow實現乙個簡單的卷積神經網路
今天對照tensorflow的書,實現了乙個簡單的卷積神經網路。基於mnist資料集。在神經網路還未出現之前,在處理影象的問題上都是使用的特徵工程 如sift 特徵工程是有侷限性的。cnn被用於影象處理,不需要將特徵提取和分類訓練兩個過程分開,它在訓練時就自動提取了最有效的特徵。卷積神經網路由多個卷...
第乙個tensorflow程式
個人部落格 最近alphago和alphazero的出現,預示著2017年成為人工智慧元年,人工智慧逐漸進入我們的生活和工作的方方面面,如在工作中,阿里巴巴雙十一中,出現了 千人千面 智慧型推薦系統,魯班ai設計師,小蜜機械人,idc智慧型巡檢機械人,還有京東的無人倉庫等。這些都讓我覺得人工智慧越來...
第乙個TensorFlow程式
tensorflow的執行方式分為如下4步 1 載入資料及定義超引數 2 構建網路 3 訓練模型 4 評估模型和進行 import tensorflow as tf import numpy as np 構造滿足一元二次方程的函式 x data np.linspace 1,1,300 np.newa...