1 轉換內容斜體樣斜體樣式式
conv5=slim.conv2d(pool4,
256,[3
,3], rate=
1, activation_fn=lrelu,scope=
'g_conv5_1'
) conv_global = tf.reduce_mean(conv5,axis=[1
,2])
# tf.reduce_mean 函式用於計算張量tensor沿著指定的數軸(tensor的某一維度)上的的平均值,
# 主要用作降維或者計算tensor(影象)的平均值。
conv_dense = tf.layers.dense(conv_global,units=
128,activation=tf.nn.relu)
# dense:全連線層相當於新增乙個層,即初學的add_layer()函式
feature = tf.expand_dims(conv_dense,axis=1)
# tf.expand_dims給定乙個input,在axis軸處給input增加乙個為1的維度。
feature = tf.expand_dims(feature,axis=2)
ones = tf.zeros(shape=tf.shape(conv4)
)# 建立乙個所有元素都設定為零的張量.
global_feature = feature + ones
tf.reduce_mean(input_tensor, axis=
none
, keepdims=
false
, name=
none
, reduction_indices=
none
)
1.1 axis在 tf.reduce_mean中的作用:沿著張量不同的數軸進行計算平均值。
1.1.1 axis缺失值為none,表示對所有元素求平均
如:a1=[1,2,3]
b1=[5,6,7]
c1=[[1,2,3],[5,6,7]]
tf.reduce_mean(c1,axis=none)
輸出結果為(1+2+3+5+6+7)/6=4
tf.layers.dense是乙個類,tf.layers.dense是乙個函式
對應的pytorch的nn.linear(in_features=512 * 512 * 3, out_features=128)
tf.expand_dims給定乙個input,在axis軸處給input增加乙個為1的維度。
# axis=0其實代表的第一維度,那麼1代表第二維度,2代表第三位度。
11月06 題目就要與眾不同
bceloss與crossentropyloss都是用於分類問題。可以知道,bceloss是binary crossentropyloss的縮寫,bceloss crossentropyloss的乙個特例,只用於二分類問題,而crossentropyloss可以用於二分類,也可以用於多分類。不過我重...
2020 08 12題目就要與眾不同
乙個數字影象是乙個二維離散訊號,利用希爾伯特曲線,可以將一副數字影象轉變為乙個一維離散訊號,這就使得對影象的處理變得更加容易。gch全域性顏色直方圖,是描述顏色特徵的最傳統的方式,缺陷,忽略了某種顏色在影象中的具體分布。也就是說,通過直方圖,可以了解某種顏色在影象中所佔的比例,但卻無法了解該顏色在影...
2020 08 15題目就要與眾不同
自然語言是一套用來表達含義的複雜系統。在這套系統中,詞是表義的基本單元。詞向量,是用來表示詞的向量或表徵,也可被認為是詞的特徵向量。把詞對映為實數域向量的技術也叫詞嵌入 word embedding 為何不用one hot向量?one hot向量構造起來容易,但不是乙個好選擇,主要原因 one ho...