神經網路中常用的生成隨機數/陣列的函式
解釋tf.random_normal()
生成正態分佈隨機數
tf.truncated_normal()
生成去掉過大偏離點(超過偏差)的正太分布的隨機數
tf.random_uniform()
生成平均分布的隨機數
tf.zeros()
全0陣列,tf.zeros([3, 2], int 32),生成[[0, 0], [0, 0], [0, 0]]
tf.ones()
全1陣列,tf.ones([3, 2], int 32),生成[[1, 1], [1, 1], [1, 1]]
tf.fill()
全定值陣列,tf.zeros([3, 2], 6),生成[[6, 6], [6, 6], [6, 6]]
tf.constant()
直接給值,tf.constant([3, 2, 1]),生成[3, 2, 1]
tf.random_normal()
[2, 3]
stddev = 2
mean = 0
seed
正態分佈
生成2*3矩陣
標準差為2
均值為0
隨機種子(去掉的話,每次生成的隨機數將不一致)
② w=tf.variable(tf.truncated_normal([2,3],stddev=2, mean=0, seed=1)),
表示去掉偏離過大的正態分佈,也就是如果隨機出來的資料偏離平均值超過兩個標準差,這個資料將重新生成。
③ w=random_uniform(shape=7,minval=0,maxval=1,dtype=tf.int32,seed=1),
表示從乙個均勻分布[minval maxval)中隨機取樣,注意定義域是左閉右開,即包含 minval,不包含 maxval。
注意:
①隨機種子如果去掉每次生成的隨機數將不一致。
②如果沒有特殊要求標準差、均值、隨機種子是可以不寫的
神經網路相關引數
關於建立 神經網路 段的引數說明 net feedforwardnet n,trainlm n為隱藏層大小,預設為10 trainlm 是被指定的訓練函式 levenberg marquardt 演算法t p net.trainparam.goal 0.001 goal是最小均方誤差的訓練目標 ne...
卷積神經網路引數
卷積神經網路 convolutional neural network,cnn 是深度學習技術中極具代表的網路結構之一,在影象處理領域取得了很大的成功,在國際標準的imagenet資料集上,許多成功的模型都是基於cnn的。cnn相較於傳統的影象處理演算法的優點之一在於,避免了對影象複雜的前期預處理過...
sklearn神經網路引數
下面寫了乙個超級簡單的例項,訓練和測試資料是mnist手寫識別資料集 from sklearn.neural network import mlpclassifier import gzip import pickle with gzip.open mnist.pkl.gz as f gz trai...