最近在學習tf的神經網路演算法,十多年沒有學習過數學了,本來高中數學的基礎,已經徹底還給數學老師了。所以我把各種函式、公式和推導當做黑盒子來用,理解他們能做到什麼效果,至於他們是如何做到的,暫時不去深究,最多知道哪個公式的效果會比哪個更適合哪個場合。
bp網路應該是最入門級的演算法了。
#用偽**描述下大概如此
# 單層bp
x = tf.placeholder(tf.float32,[none,256])
y = tf.placeholder(tf.float32,[none,10])
w = tf.variable(tf.random_normal([256,10]))
b = tf.variable(tf.zeros([10]))
pred = tf.nn.softmax(tf.multiply(w,x)+b)
loss = tf.reduce_sum(-pred*tf.log(y))
op = tf.train.gradientdescentoptimizer(0.001).minimize(loss)
多層網路
x = tf.placeholder(tf.float32,[none,256])
y = tf.placeholder(tf.float32,[none,10])
w1 = tf.variable(tf.random_normal([256,1024]))
b1 = tf.variable(tf.zeros([1024]))
x1 = tf.nn.relu(tf.multiply(w1,x)+b1)
w2 = tf.variable(tf.random_normal(1024,10))
b2 = tf.variable(tf.zeros([10]))
pred = tf.nn.softmax(tf.multiply(w2,x1)+b2)
loss = -tf.reduce_sum(pred*tf.log(y))
op = tf.train.gradientdescentoptimizer(0.001).minimize(loss)
去掉了所有的訓練過程,也沒有應用到具體的場景,盡可能把模型描繪一下,自己的理解,理解的不對請大家指正。 我對px em rem的簡單理解
em 會繼承父元素 設定的font size 62.5 使用em時,body就是body內元素的父元素,所以需要設定好body的字型大小 此時 1em 10px div font size 1.6em。p font size 1.6em。因為父元素div的字型大小為1.6em 這裡的em是與p無關的...
bp神經網路的簡單理解和使用
這裡構建的網路實際就是建立x到y的對映函式 a 1 1 10 輸入矩陣其實就是x t 1 1 5 6 1 2 期望矩陣就是y plot a,t net newff minmax a 5,1 trainlm 設定網路相關引數 net.trainparam.goal 0.001 net.trainpar...
BP神經網路的基本理解
誤差反向傳播 error back propagation,bp 演算法 1 bp演算法的基本思想是,學習過程由訊號的正向傳播與誤差的反向傳播兩個過程組成。1 正向傳播 輸入樣本 輸入層 各隱層 處理 輸出層 注1 若輸出層實際輸出與期望輸出 教師訊號 不符,則轉入2 誤差反向傳播過程 2 誤差反向...