1.標量、向量、矩陣、張量的概念及基本python運算
這篇文章部分**中變數的型別有問題,整體無傷大雅。
2.向量點乘(內積)和叉乘(外積、向量積)概念及幾何意**讀
這篇文章分割線後面的內容可以跳過
3.矩陣和陣列的區別
4.不同的「維度」:
向量的維度指向量的長度,即列數。
陣列的維度是指數組的深度,看最左邊有幾個括弧。 比如[[[1, 2], [3, 4]], [[5, 6], [7, 8]]]就是3維陣列。矩陣在形式上是2維陣列,但兩者型別不同,所包含的運算規則也不同。
矩陣的維度是指矩陣的行數。
詳解 n 維向量、n 維陣列 和 矩陣的維度:
史上最生成形象的理解矩陣的維度和乘法:
5.簡單來講,張量可以理解成多維陣列。
第零階張量 (r = 0) 為標量 (scalar),第一階張量 (r = 1) 為向量 (vector), 第二階張量 (r = 2) 則成為矩陣 (matrix)。
深度學習數學基礎之線性代數
深度學習中的基本資料結構,基本上都是用向量或矩陣表示的,因此 深度學習的基礎學科之一 就是線性代數。深度學習中的線性代數知識主要包括以下部分 1 標量 向量 矩陣和張量 這4個變數很好理解 分別表示 乙個數 一維空間 一條線 二維 乙個平面 多於二維 立體或超立體等 2 矩陣的乘法和內積 這個在深度...
線性代數 線性代數的本質
線性代數在機器學習的領域中扮演者十分重要的角色,所以這裡岔開先整理一些線性代數的基本概念和計算方法。這裡是3blue1brown的線性代數課程的截圖和筆記。作為快速複習的網路筆記。本課程的特點 通過影象展現線性代數計算在幾何圖形上意義。這樣能更好的理解線性代數為什麼叫做線性代數。線性代數為什麼採用這...
線性代數的學習
最近在學習鞏固視覺slam的時候,突然發現對線性代數中有一些知識點有盲點,於是重新看了一下湯神的線性代數講解 有考研的同學極力推薦湯神的課程,有湯神保駕護航,數學不會低於120!整理了一下 a 0 時,則存在唯一解 1 a 使得 x b 1 a a 0 時,當 b 0 則表示無解,當 b 0 時,則...