**:
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
#使用numpy來生成兩百個隨機點, 範圍在-0.5到0.5之間,均勻分布
#np.newaxis:插入新的維度
x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]
#生成一些干擾項
noise = np.random.normal(0, 0.2, x_data.shape)
y_data = np.square(x_data) + noise
#定義兩個placeholder
#[none, 1]:行數不確定,列數就1列
x = tf.placeholder(tf.float32, [none, 1])
y = tf.placeholder(tf.float32, [none, 1])
#定義神經網路中間層
#輸入層1個神經元,中間層10個神經元
weights_l1 = tf.variable(tf.random_normal([1, 10]))
biases_l1 = tf.variable(tf.zeros([1, 10]))
wx_plus_b_l1 = tf.matmul(x, weights_l1) + biases_l1
#雙曲正切函式作為啟用函式
l1 = tf.nn.tanh(wx_plus_b_l1)
#定義輸出層
#中間層10個神經元,輸出層1個神經元
weights_l2 = tf.variable(tf.random_normal([10, 1]))
biases_l2 = tf.variable(tf.zeros([1,1]))
wx_plus_b_l2 = tf.matmul(l1, weights_l2) + biases_l2
prediction = tf.nn.tanh(wx_plus_b_l2)
#二次代價函式
loss = tf.reduce_mean(tf.square(y-prediction))
#使用梯度下降法訓練
train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss)
with tf.session() as sess:
#變數初始化
sess.run(tf.global_variables_initializer())
for _ in range(2001):
sess.run(train_step, feed_dict=)
#獲得**值
prediction_value = sess.run(prediction, feed_dict=)
#畫圖plt.figure()
plt.scatter(x_data, y_data)
plt.plot(x_data, prediction_value, 'r-', lw=5)
plt.show()
執行結果:
tensorflow實現線形回歸
回歸是基於已有的資料對新的資料進行 除了標準的線形回歸,還會有戴明回歸 lasso回歸 嶺回歸 彈性網路回歸 邏輯回歸等,具體的定義和差別會在下文實現中體現。1 首先準備資料 這裡採用sklearn的資料iris資料集 from sklearn import datasets import nump...
線形回歸與損失函式
假設 特徵 和 結果 都滿足線性。即不大於一次方。這個是針對 收集的資料而言。收集的資料中,每乙個分量,就可以看做乙個特徵資料。每個特徵至少對應乙個未知的引數。這樣就形成了乙個線性模型函式,向量表示形式 這個就是乙個組合問題,已知一些資料,如何求裡面的未知引數,給出乙個最優解。乙個線性矩陣方程,直接...
Tensorflow 回歸分析
用tensorflow來做回歸分析,基於梯度下降法 這裡以一元回歸分析為例子來說明如何用tensorflow實現回歸分析。1 產生資料 採用隨機的方式來產生。先基於均值為0,方差為0.9的正態分佈產生隨機數x,再通過線性變換產生y,再新增乙個均值為0,方差為0.5的雜訊。這樣便得到資料x和y。imp...