張量就是乙個變化量。
張量有零階、一階、二階、三階、四階等等。
零階張量是純量(數值)
一階張量是向量(數值和方向的組合)
二階張量是矩陣(向量的組合)
三階張量是資料立體(矩陣的組合)
四階張量(資料立體的組合)
等等。1、純量就是乙個數值,可以看成是乙個數值上的變化量。
2、向量是點到點的變化量,而點可以是一維空間上的點、二維空間上的點、三維空間上的點,等等。
二維空間上的點的變化,好像點(x,y)在面上的移動,也即是前後左右的線性變化,變化量可以表示為[x1, y1]。
三維空間上的點的變化,好像點(x,y,z)在體上的移動,也即是前後上下左右的線性變化,變化量可以表示為[x1, y1, z1]。
n維空間上的點的變化,好像點(x,y,z,.....n)在體上的移動,也即是2n個方向的線性變化,變化量可以表示為[x1, y1, z1,……n1]。
3、矩陣是圖形到圖形的變化量,而圖形可以是一維的線、二維的面、三維的體,等等。
3.1、一維的線的變化,我們知道兩點可以表示一線段,則需要用兩個向量組成的矩陣對兩點進行變化,就能達到對線段的變化。
3.2、二維的面的變化,我們知道三點可以表示乙個三角形,四點可以表示乙個四邊形,五點可以表示乙個五邊形,等等。就拿三角形來說,需要用三個向量組成的矩陣對三點進行變化,就能達到對三角形的變化。
3.3、三維的體的變化,我們知道4點可以表示乙個三角堆,5點可以表示四稜錐、6點可以表示乙個三稜柱,等等。就拿三角堆來說,需要用四個向量組成的矩陣來對四個頂點進行變化,就能達到對三角堆的變化。
4、三階張量可以表示影象的變化量,影象與圖形的不同是影象的點除了有座標,還具有顏色特性,如rgb、rgba、ycbcr等表示的顏色。拿rgb的影象來說,它的變化量包括座標和色值變化。影象座標的變化相當於圖形的變化,即是乙個矩陣的變化。色值變化也就是rgb在顏色空間中的乙個點變化,也是乙個矩陣的變化,影象變化有兩個矩陣變化,三階張量是矩陣的組合,則可以用三階張量來表示影象的變化量,如tensor[3,5,5]表示3顏色通道的5*5大小圖形的變化量。
5、四階張量在tensorflow的神經卷積網路中,經常用到。下面舉個例子。
5.1、輸入張量格式:[batch, in_height, in_width, in_channels]
5.2、卷積核格式:[filter_height, filter_width, in_channels, out_channels]
5.3、我們來對輸入進行卷積得到特徵。
一張5通道的5*5的輸入:input = [1, 5, 5, 5];
5輸入通道、7輸出通道的3*3大小的卷積核:filter = [3, 3, 5, 7];
strides=[1,1,1,1]表示各個方向步長為1;
padding=「same」表示卷積核遍歷到輸入的每個畫素,得到的特徵與輸入是一樣大小。
tf.shape(tf.nn.conv2d(input, filter, strides=[1,1,1,1], padding=「same」));
卷積結果是:[1, 5, 5, 7]
5.4、用圖形來表示上面的卷積過程。
掃碼向博主提問
基礎 什麼是張量 資料立體 矩陣 向量和純數
張量就是乙個變化量。張量有零階 一階 二階 三階 四階等等。零階張量是純量 數值 一階張量是向量 數值和方向的組合 二階張量是矩陣 向量的組合 三階張量是資料立體 矩陣的組合 四階張量 資料立體的組合 等等。1 純量就是乙個數值,可以看成是乙個數值上的變化量。2 向量是點到點的變化量,而點可以是一維...
什麼是張量 資料立體 矩陣 向量和純數
張量就是乙個變化量。張量有零階 一階 二階 三階 四階等等。零階張量是純量 數值 一階張量是向量 數值和方向的組合 二階張量是矩陣 向量的組合 三階張量是資料立體 矩陣的組合 四階張量 資料立體的組合 等等。1 純量就是乙個數值,可以看成是乙個數值上的變化量。2 向量是點到點的變化量,而點可以是一維...
什麼是tensor 張量)
張量的的定義 乙個n維的張量就是一維陣列中的每乙個元素都為 n 1 維的張量 舉個栗子 乙個二維張量,就是乙個一維陣列裡面的所有元素都是乙個一維張量 乙個三維張量,就是乙個一維陣列裡面的所有元素都是乙個二維張量 這種遞迴式的定義不是很好理解,如果你覺得以上的說明很晦澀難懂,以下的我的理解為 因為 任...