請參考這裡:
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=none, name=none)
除去name引數用以指定該操作的name,與方法有關的一共五個引數:
第乙個引數input:指需要做卷積的輸入影象,它要求是乙個tensor,具有[batch, in_height, in_width, in_channels]這樣的shape,具體含義是[訓練時乙個batch的數量, 高度, 寬度, 影象通道數],注意這是乙個4維的tensor,要求型別為float32和float64其中之一。影象通道數——就是有幾**像集。
第二個引數filter:相當於cnn中的卷積核,它要求是乙個tensor,具有[filter_height, filter_width, in_channels, out_channels]這樣的shape,具體含義是[卷積核的高度,卷積核的寬度,影象通道數,卷積核個數],要求型別與引數input相同,有乙個地方需要注意,第三維in_channels,就是引數input的第四維。數值要一致。
第三個引數strides:卷積時在影象每一維的步長,這是乙個一維的向量,長度為4。[1,height步長,width步長,1]。
第四個引數padding:string型別的量,只能是"same","valid"其中之一,這個值決定了不同的卷積方式。「same」表示卷積核可以壓在影象邊緣,使最終的feature-mat大小=大小。
第五個引數:use_cudnn_on_gpu:bool型別,是否使用cudnn加速,預設為true
結果返回乙個tensor,這個輸出,就是我們常說的feature map
請參考這裡:
tf.nn.max_pool(value, ksize, strides, padding, name=none)
引數是四個,和卷積很類似:
第乙個引數value:需要池化的輸入,一般池化層接在卷積層後面,所以輸入通常是feature map,依然是[batch, in_height, in_width, in_channels]這樣的shape
第二個引數ksize:池化視窗的大小,取乙個四維向量,一般是[1, height, width, 1],因為我們不想在batch和channels上做池化,所以這兩個維度設為了1
第三個引數strides:和卷積類似,視窗在每乙個維度上滑動的步長,一般也是[1, height_stride,width_stride, 1]
第四個引數padding:和卷積類似,可以取'valid' 或者'same'
返回乙個tensor,型別不變,shape仍然是[batch, height, width, channels]這種形式
參考**:
tensorflow中一些常用函式記錄
簡單函式不給用例 函式原型 def moments x,axes,shift none,pylint disable unused argument name none,keep dims false 例子img tf.variable tf.random normal 2,3,4 keep dim...
IOS開發中一些重要提示筆記
1 空值處理不當是引起程式錯誤乃至崩潰的重要原因之一。2 有效減少記憶體使用是開發軟體時第一優先順序的事情。3 在類的dealloc 函式中一定要將 super dealloc 放到最後一行。4 將類的成員變數作為類內部私有資料,而將類屬性作為外部可訪問的公有資料。5 使用 protocol模式時,...
創業之中一些重要的事
多人在初次創業的時候,都是資源十分欠缺的。資源不足,使企業創業成功的概率降低,但要有完全充分的資源也是不可能的。在資源具備上,一般來說,要符合兩種條件 一是要有進入乙個行業的起碼的資源,另一方面是具備差異性資源。如果任何條件均不具備,創業成功的可能性很小。創業資源條件主要包括幾個方面 業務資源 賺錢...