x_data = np.random.rand(
100)
.astype(np.float32)
#通過本函式可以返回乙個或一組服從「0~1」均勻分布的隨機樣本值。
w = tf.variable(initial_value=tf.random_uniform([1],-1.0,1.0))
#生成一維向量,大小在-1到1之間
b = tf.variable(initial_value=tf.zeros([1
]))#shape 代表形狀,也就是1緯的還是2緯的還是n緯的陣列。
1.tf.multiply()兩個矩陣中對應元素各自相乘
2.tf.matmul()將矩陣a乘以矩陣b,生成a * b。
用於從「服從指定正態分佈的序列」中隨機取出指定個數的值。
tf.random_normal(shape, mean=
0.0, stddev=
1.0, dtype=tf.float32, seed=
none
, name=
none)
shape: 輸出張量的形狀,必選
mean: 正態分佈的均值,預設為0
stddev: 正態分佈的標準差,預設為1.0
dtype: 輸出的型別,預設為tf.float32
seed: 隨機數種子,是乙個整數,當設定之後,每次生成的隨機數都一樣
name: 操作的名稱
tf.truncated_normal(shape, mean, stddev)
釋義:截斷的產生正態分佈的隨機數,即隨機數與均值的差值若大於兩倍的標準差,則重新生成。
shape,生成張量的維度
mean,均值
stddev,標準差
def
conv2d
(input
,# 張量輸入
filter
,# 卷積核引數
strides,
# 步長引數
padding,
# 卷積方式
use_cudnn_on_gpu=
none
,# 是否是gpu加速
data_format=
none
,# 資料格式,與步長引數配合,決定移動方式
name=
none):
# 名字,用於tensorboard圖形顯示時使用
pooling = tf.nn.max_pool(
h,
ksize=[1
, height, width,1]
, strides=[1
,1,1
,1],
padding=
'valid'
, name=
"pool"
)
1
. h : 需要池化的輸入,一般池化層接在卷積層後面,所以輸入通常是feature map,依然是[batch_size, height,
width, channels]這樣的shape
2. k_size : 池化視窗的大小,取乙個四維向量,一般是[
1, height, width,
1],因為我們不想在batch和channels上做池化,所以這兩個維度設為了1
3. strides : 視窗在每乙個維度上滑動的步長,一般也是[
1, stride,stride,1]
4. padding: 填充的方法,same或valid,same表示新增全0填充,valid表示不新增
tensorflow常用函式
1.variable 主要在於一些可訓練變數 trainable variables 比如模型的權重 weights 或者偏執值 bias 1 宣告時,必須提供初始值 2 在真實訓練時,其值是會改變的,自然事先需要指定初始值 weights tf.variable tf.random normal ...
tensorflow 函式最終
1 tf.contrib.learn.preprocessing.vocabularyprocessor 說明 最終的結果為分詞後的句子的索引表示形式,例如 原句為 我是中國人 分詞後為 我 是 中國人 則最終結果為 0,1,2 表示 我 在詞表中的位置為0 tf.contrib.learn.pre...
TensorFlow常用函式
使用tensorflow計算流程 1 prepare train data 2 define model and graph 3 choose optimizer 4 create a session to run import tensorflow as tf 1.tf.reduce mean i...