gradientdescentoptimizer
adagradoptimizer
adagraddaoptimizer
momentumoptimizer
adamoptimizer
ftrloptimizer
rmspropoptimizer
主要有以上幾種
用法:tf.gradientdescentoptimizer(learning_rate)
一般在上面這個函式的後面還會加乙個最小化代價函式,構成深度學習中的訓練物件
tf.gradientdescentoptimizer(learning_rate).minimize(loss)
其他的函式用法很類似,只是裡面的引數有些不同
tensorflow中的優化器
1.tf.train.gradientdescentoptimizer 標準梯度下降優化器 標準梯度下降先計算所有樣本彙總誤差,然後根據總誤差來更新權值 2.tf.train.adadeltaoptimizer adadelta優化器,在sgd的基礎上 3.tf.train.adagradoptim...
TensorFlow中的優化演算法
隨機梯度下降 sgd stochastic gradient descen 每次從訓練樣本中隨機抽取乙個樣本計算loss和梯度並對引數進行更新,由於每次不需要遍歷所有的資料,所以迭代速度快,但是這種演算法比較弱,往往容易走偏。與隨機梯度下降相對應的還有批量梯度下降bgd,每次用整個訓練集計算梯度,比...
tensorflow2 0之one hot函式使用
先了解一下one hot要幹啥吧。來,咱先看個程式,你一定會很眼熟的。嘿,是不是發現什麼了?labels向量最後可以表示乘矩陣的方式,且 1 0 0 表示0,類推 0 1 0 0 表示1,這樣,可以表示 0 9總共九個數值。one hot的作用就是這樣的,作為儲存標籤的一種方式,用1的位置不同來區分...