使用隨機數,生成樣本資料,作為輸入,然後經過中間的隱藏層,對資料進行擬合。
1個輸入單元,10個隱含單元,1個輸出單元。
y# -*- coding: utf-8 -*-
"""created on thu may 16 10:49:34 2019
@author: 666
"""import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
#生成200個在-0.5到0.5等距分布的點
x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis]
noise = np.random.normal(0.0,0.02,x_data.shape)
y_data = np.square(x_data)+noise
#定義兩個佔位的,x,y行不確定,一列的資料
x = tf.placeholder(tf.float32,[none,1])
y = tf.placeholder(tf.float32,[none,1])
#定義神經網路中間層 1個神經元作為輸入,中間10個神經元作為中間層
weight_l1 = tf.variable(tf.random_normal([1,10]))
biases_l1 = tf.variable(tf.zeros([1,10]))
wx_plus_b_l1 = tf.matmul(x,weight_l1) + biases_l1
l1 = tf.nn.tanh(wx_plus_b_l1)
#定義輸出層
weight_l2 = tf.variable(tf.random_normal([10,1]))
biases_l2 = tf.variable(tf.zeros([1,1]))
wx_plus_b_l2 = tf.matmul(l1,weight_l2) + biases_l2
prediction = tf.nn.tanh(wx_plus_b_l2)
#代價函式
loss = tf.reduce_mean(tf.square(y-prediction))
#使用梯度下降法
train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss)
init = tf.global_variables_initializer()
with tf.session() as sess:
sess.run(init)
for step in range(2000):
sess.run(train_step,feed_dict = )
if step%20 == 0:
print(step,sess.run([weight_l1,biases_l1]))
#獲得**值
prediction_value = sess.run(prediction,feed_dict = )
#畫圖plt.figure()
plt.scatter(x_data,y_data)
plt.plot(x_data,prediction_value, 'r-', lw = 5)
plt.show()
結果:
tensorflow2的資料載入
對於一些小型常用的資料集,tensorflow有相關的api可以呼叫 keras.datasets 經典資料集 1 boston housing 波士頓房價 2 mnist fasion mnist 手寫數字集 時髦品集 3 cifar10 100 物象分類 4 imdb 電影評價 使用 tf.da...
Tensorflow2 自動求導機制
tensorflow 引入了 tf.gradienttape 這個 求導記錄器 來實現自動求導 如何使用 tf.gradienttape 計算函式 y x x 2 在 x 3 時的導數 import tensorflow as tf x tf.variable initial value 3.初始化...
tensorflow2建立卷積核Conv2D函式
使用conv2d可以建立乙個卷積核來對輸入資料進行卷積計算,然後輸出結果,其建立的卷積核可以處理二維資料。依次類推,conv1d可以用於處理一維資料,conv3d可以用於處理三維資料。在進行神經層級整合時,如果使用該層作為第一層級,則需要配置input shape引數。在使用conv2d時,需要配置...