在了解向量前我們要知道,我們平時說的乙個數值,比如5
、-3
、0
等等,實際上,我們可以把這些數,叫做一維向量,這些向量呢,可以相加,相乘(注意,乘法是乙個一維向量乘以乙個倍數)。然後0
作為所有一維向量的原點,且數值之間有大小之分。這些都是們約定俗成的東西。
那我們平時說的向量其實就是二維向量,也即是一對數值,對標一維向量,二維向量也有原點(0,0)
,但由於二維向量是兩個數,所以沒法相互比較大小,因為有了方向的概念(這是非常誤導人的乙個概念),但是和一維向量一樣可以進行相加和相乘(相乘同樣是一對二位數值乘以同乙個倍數),正因為二維向量每個數都具有一維向量的原點性,這也是為什麼向量加法脫離不了原點,而我們平時計算向量的三角形法則實際上只是乙個輔助為我們計算的方法,但很多時候這玩意兒十分具有誤導性,總讓我們覺得這個東西跟幾何相關。
拓展一下,廣義的向量自然不拘束於二維,還有三維、四維等等,那為什麼要做這個東西出來呢?我們還是回到一維向量,一維處理的就是我們在乙個維度上能比較變化的數,但是如果乙個事物具有多個維度,而每個維度沒法相互變化比較,那就需要向量了。
我覺得向量真的誤導人,叫幾維數更合適。
線性代數的本質 向量篇
本篇筆記,可作為 邏輯小站 邏輯與ai 欄目中機器學習板塊的內容。如果把 線性代數 比作一座大廈,那麼 向量 就是這個大廈的磚石了。向量 是學習線性代數所有其它內容的起點和基礎。在開始以前,首先讓我們對齊你和我對 向量是什麼 這個問題的回答。從最廣的意義上,對 向量 可以從三個視角理解 物理學的角度...
線性代數的本質 什麼是向量?
1 計算機專業視角 不是對立的而是相通的 對於做機器學習,資料分析方面的人來說,我們常用 特徵向量 所以對於我們來說,向量是資料列表,是建模目標的特徵值。2 物理學專業視角 向量勢空間中的箭頭,箭頭代表方向,箭身代表數值大小,向量可以自由移動,只要方向和大小不變。3 數學家的視角 數學家試圖去概括這...
線性代數的本質(一) 什麼是向量
我們所熟知的向量的樣子是下面這樣的 v ab vec begin a b end v ab 直觀的幾何理解是這個向量v vec v是從原點指向座標為 2,3 的箭頭,如下圖 這裡向量的兩個分量能夠告訴我們如何從原點出發找到這樣乙個箭頭,這裡第乙個分量告訴我們先沿著x軸正方向移動 2個單位,第二個分量...