機器學習三要素:資料、演算法、算力
1、機器學習,就是在任務 t 上,隨經驗 e 的增加,效果 p 隨之增加。
2、機器學習的過程是通過大量資料的輸入,生成乙個模型,再利用這個生成的
模型,實現對結果的**。
3、龐大的神經網路是基於神經元結構的,是輸入乘以權重,再求和,再過非線
性函式的過程。
檔案讀操作
import pickle
開:檔案變數 = open(」檔案路徑檔名」, 」rb」)
取:放內容的變數 = pickle.load(檔案變數)
關:檔案變數.close()
檔案寫操作
import pickle
開:檔案變數 = open(」檔案路徑檔名」, 」wb」)
存:pickle.dump(待寫入的變數,檔案變數)
關:檔案變數.close()
第一步:準備好資料集
第二步:nn結構,前向傳播
輸入資料的特徵
建立入口
#x訓練入口(2個特徵值) y_歷史資料(1個答案)
#佔位x=tf.
placeholder
(tf.float32,shape=
(none,2)
)y_=tf.
placeholder
(tf.float32,shape=
(none,1)
)#權重w,隨機生成
w1=tf.
variable
(tf.
random_normal([
2,3]
,stddev=
1,seed=1)
)w2=tf.
variable
(tf.
random_normal([
3,1]
,stddev=
1,seed=1)
)#矩陣運算
a=tf.
matmul
(x,w1) #隱藏層
y=tf.
matmul
(a,w2) #輸出層
#得出,**y
第三步:迭代優化,反向傳播#定義損失函式及反向傳播
#歷史資料-**值
loss = tf.
reduce_mean
(tf.
square
(y_-y)
)train_step = tf.train.
gradientdescentoptimizer
(0.001).
minimize
(loss)
#生成會話
with tf.
session()
as sess:
sess.
run(tf.
global_variables_initializer()
) #訓練模型
for i in
range
(輪數)
: sess.
run(train_step,feed_dict=
)
要會話train_step ,需要知道餵入哪些資料
反推train_step ----->> loss
loss ----->> y,y_(已有)
y ----->> x(已有)
得: x,y_
第四步:給入新資料—**結果
乙個神經元的神經網路
coding utf 8 filename 乙個神經元的神經網路 software pycharm author li xu time 2020 1 15 15 45 編寫乙個神經元 import numpy as np defsigmod x 定義乙個啟用函式 param x 引數x return...
乙個簡單的神經網路例子
來自神經網路之家 日期 2015 07 1611 18 37.0 用於訓練的輸入資料 對應的輸出資料 我們這裡設定 1 節點個數設定 輸入層 隱層 輸出層的節點個數分別為 2 3,1 2 傳遞函式設定 隱層 tansig函式 輸出層 purelin函式 3 訓練方式 trainlm。即得到下圖的模型...
構建第乙個神經網路
莫煩python 使用軟體anaconda3 import tensorflow as tf import numpy as np 匯入模組以後,構建乙個新增神經網路層的函式 add layer 其中需要設定的神經網路層的變數為輸入輸出和激勵函式,同時需要告知函式輸入輸出的大小 size def a...