剛把mnist又過了一遍,突然感覺對tensor的shape有了新的理解,雖然很基礎,還是想分享一下
關於tensor的維度,也就是階啦,從認知上理解,一維就是線(陣列或者向量),二維就是面(矩陣),三維就是體(資料體),四維是資料陣列 等等等等;新的理解是在表現方式上的,也就是列印出的樣子,例如:
[ [1,1,1] [1,1,1] ]
顯然它是二維的,因為一看就是乙個矩陣,那如果 [ ] 多了又怎麼判斷呢,這是個取巧的辦法,看第乙個數字左邊有幾個 [就行了。
當然,還沒進入正題,兩個新的理解:
shape[2,3,4] 怎麼表示咩?
首先有乙個 [ ] (記為一號)闊住所有的量,(所有的tensor最外層都會有乙個[ ])
[ ]
第乙個引數「2」,表示一號 [ ] 中有2個大部分,(記為二號)
[[ ] [ ]]
第二個引數「3」,表示每個二號 [ ] 中有3個小部分,(記為三號)
[[ ] [ ]]
第三個引數「4」,表示每個三號 [ ] 中有4個資料
舉個例子吧
tensor = tf.constant(1,[2,3,4])
'''
[ [ [1,1,1,1] [1,1,1,1] [1,1,1,1] ]
[ [1,1,1,1] [1,1,1,1] [1,1,1,1] ] ]
'''這樣應該就看的明白了
關於這個例子的思考(shape[2,3,4] 中引數2,3,4究竟表示的是什麼?)
第乙個引數「2」表示在第一維中有2個元素,也就是上面所說的2個二號 [ ] ,
第二個引數「3」表示第二維中有3個元素,也就是上面所說的3個三號 [ ] ,
第三個引數「4」自然也就是表示第三維中有4個元素的意思,也就是上面說的每個三號 [ ] 中有4個資料
再總結一下,第n個引數就表示第n維中含有的元素
關於tensorflow卷積shape的詳細解析
1.幾維就有幾層括號 2.shape 5,2,3,4 代表的意思的意思是234大小的三維矩陣,深度為倆層,五個這樣的三維矩陣,在使用conv2d時,最後形成的矩陣按照這個shape規律形成,但是其shape對應位置的數字所代表的意義被重新賦予,在input中,第乙個位置表示幾個矩陣,第二位置表示矩陣...
Pytorch Tensor和tensor的區別
在pytorch中,tensor和tensor都能用於生成新的張量 a torch.tensor 1 2 a tensor 1 2.a torch.tensor 1 2 a tensor 1 2 首先,我們需要明確一下,torch.tensor 是python類,更明確地說,是預設張量型別torch...
Variable和tensor的計算
變數在torch中是建立乙個計算圖,但是相比較tensorflow和theano中的靜態圖,它是動態的,torch沒有placeholder,torch只能給計算圖傳遞變數 import numpy as np import torch from torch.autograd import vari...