下面的示例對:y = w1.x1 + w2.x2 + … +wn.xk + b 多元一次方程進行線性回歸
#原始碼
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
def normalize(x):
"""歸一化函式
:param x:
:return: x
"""mean = np.mean(x)
std = np.std(x)
x = (x - mean)/std
return x
"""w1.x1 + w2.x2 + ... +wn.xk + b = y => (1,x1,x2,x3,...,xk)(b,w1,w2,w3,...,wk)' = y
=> (x0,x1,x2,x3,...,xk)((w0,w1,w2,w3,...,wk)' = y 其中:x0=1,w0=b
:param features_data: 訓練資料矩陣
:param k: 特徵數(x向量維度)
:param labels: 標籤向量(y向量)
:return:
"""m = features_data.shape[0]
print("m=", m)
n = labels.shape[0]
print("n=",n)
x = np.reshape(np.c_[np.ones(m),features_data],[m,k+1])
y = np.reshape(labels,[n,1])
return x,y
#1. 特徵訓練資料
x_train = np.matrix([[1,3,5,2],[3,3,1,2],[1,3,5,2],[3,3,1,2],[3,3,1,2],[3,3,1,2]])
y_train = np.array([1,2,2,4,3,6])
#特徵數量
k = len(x_train[0])
#2. 對訓練資料整形,並且x_train,y_train 必須轉換為numpy矩陣或者陣列
m = len(x_train)
n = k+1
#3. x,y 訓練輸入站位符
x = tf.placeholder(tf.float32, name="x", shape=[m, n])
y = tf.placeholder(tf.float32, name="y")
#4. 定義權重向量
w = tf.variable(tf.random_normal([n, 1]))
#5. 定義目標函式
y_hat = tf.matmul(x, w)
#6. 定義損失函式
loss = tf.reduce_mean(tf.square(y - y_hat), name="loss")
#7, 選擇梯度下降法優化器
optimizer = tf.train.gradientdescentoptimizer(learning_rate=0.01, name="optimizer").minimize(loss)
#8. 定義變數初始化器
init_op = tf.global_variables_initializer()
total =
with tf.session() as sess:
""" 執行變數初始化 """
sess.run(init_op)
""" 儲存會話執行圖 """
writer = tf.summary.filewriter("graphs", sess.graph)
""" 對訓練資料執行100次訓練 """
for i in range(100):
""" 執行訓練:輸出每一次的損失函式值,通過feed_dict指定訓練引數值"""
_,l = sess.run([optimizer, loss], feed_dict=)
print('epoch:loss ='.format(i,l))
writer.close()
""" 從sess中獲取訓練後的權重向量 """
w_value = sess.run(w)
print('w_value =, b_value:'.format(w_value,x_train[:, 0]))
plt.plot(total)
plt.show()
tensorboard 圖示:
在控制台輸入命令:tensorboard --logdir graphs
一次回家過年的感受
工作,這個詞已在我頭腦裡轉過無數次,其目的是掙錢,很多錢,可持續發展的一種工作急需我去打到,明年,明年的10月,就要為它麵四處跑,與其說是工作還不如說是打工,為別人直賣命,現在找個賣命的都難,說能力不夠。這年頭,那裡都不好過,眼看人也慢慢變大,接二連三的會來許多許多的問題,最起碼的,就是生活,能保他...
多元一次方程
變數 矩陣 c1,cn 矩陣尺寸 1 n 引數 矩陣 11,nn 矩陣尺寸 n n 結果 矩陣 r1,rn 矩陣尺寸 n 1 求變數cn c1 cn 1類同處理 表示式cn可以訪問 選擇 編碼服務 進行獲取,上僅提供1 9的計算表示式。資料反演 疊加聲音的分離等。因分子分母內容相仿,僅表達分母部份即...
畢業後第一次回家
轉眼間,大學四年已經過去了。從大四 今年 下學期就開始在公司實習,畢業後直接到公司工作,已經有半年的時間。半年的時間成長很多,收穫很多,也有頗多感受。畢業後第一次回家,和以前的感受不一樣了,以前是回去吃吃父母做的飯,拿上前又來學校,現在更多的改是對父母 對家庭的匯報。中秋國慶,公司發了一盒月餅,1....