1、標量
乙個標量就是乙個單獨的數,一般用小寫的的變數名稱表示。
2、向量
乙個向量就是一列數,這些數是有序排列的。用過次序中的索引,我們可以確定每個單獨的數。通常會賦予向量粗體的小寫名稱。當我們需要明確表示向量中的元素時,我們會將元素排列成乙個方括號包圍的縱柱:
我們可以把向量看作空間中的點,每個元素是不同的座標軸上的座標。
3、矩陣
矩陣是二維陣列,其中的每乙個元素被兩個索引而非乙個所確定。我們通常會賦予矩陣粗體的大寫變數名稱,比如a。 如果乙個實數矩陣高度為m,寬度為n,那麼我們說
矩陣這東西在機器學習中就不要太重要了!實際上,如果我們現在有n個使用者的資料,每條資料含有m個特徵,那其實它對應的就是乙個n*m的矩陣呀;再比如,一張圖由16*16的畫素點組成,那這就是乙個16*16的矩陣了。現在才發現,我們大一學的矩陣原理原來這麼的有用!要是當時老師講課的時候先普及一下,也不至於很多同學學矩陣的時候覺得莫名其妙了。
4、張量
幾何代數中定義的張量是基於向量和矩陣的推廣,通俗一點理解的話,我們可以將標量視為零階張量,向量視為一階張量,那麼矩陣就是二階張量。 例如,可以將任意一張彩色表示成乙個三階張量,三個維度分別是的高度、寬度和色彩資料。
將這張圖用張量表示出來,就是最下方的那張**:
其中表的橫軸表示的寬度值,這裡只擷取0~319;表的縱軸表示的高度值,這裡只擷取0~4;**中每個方格代表乙個畫素點,比如第一行第一列的**資料為[1.0,1.0,1.0],代表的就是rgb三原色在的這個位置的取值情況(即r=1.0,g=1.0,b=1.0)。
張量在深度學習中是乙個很重要的概念,因為它是乙個深度學習框架中的乙個核心元件,後續的所有運算和優化演算法幾乎都是基於張量進行的。
標量 向量 矩陣 張量及向量和矩陣範數簡介
標量 scalar 乙個標量表示乙個單獨的數,它不同於線性代數中研究的其他大部分物件 通常是多個數的陣列 我們用斜體表示標量。標量通常被賦予小寫的變數名稱。向量 vector 乙個向量表示一組有序排列的數。通過次序中的索引,我們可以確定每個單獨的數。通常我們賦予向量粗體的小寫變數名稱。當我們需要明確...
標量 向量和張量
其實,標量和向量分別是0階和1階張量,加上其概念相對簡單,本文的重點在於介紹張量。張量的背景及概念 我們知道,很多 尤其是近現代 提出的數學概念,很多都不是從實際出發的,張量這個概念也是。早在它在被命名為tensor之前,數學上就已經有了相關的概念,用做對向量的一種擴張的概念。後來,愛因斯坦和格羅斯...
矩陣論基礎 標量 向量 矩陣 相互求導
目錄 1 1 標量對標量求導 略 2 向量對標量求導 略 3 矩陣對標量求導 2 1 標量對向量求導 2 向量對向量求導 3 矩陣對向量求導 3 1 標量對矩陣求導 3 矩陣對矩陣求導 附上matlab 可自行觀察實驗結果 clear clc syms x y z v f1 x y,x y y z,...