向量積(叉積,叉乘,外積) a×b = |a| * |b| * sinθ
1.概述
定義向量積,數學中又稱外積、叉積,物理中稱矢積、叉乘,是一種在向量空間中向量的二元運算。與點積不同,它的運算結果是乙個向量而不是乙個標量。並且兩個向量的叉積與這兩個向量和垂直。其應用也十分廣泛,通常應用於物理學光學和計算機圖形學中。
2.表示方法
兩個向量a和b的叉積寫作a×b(有時也被寫成a∧b,避免和字母x混淆)。
3.定義
向量積可以被定義為:
向量積|c|=|a×b|=|a||b|sin
即c的長度在數值上等於以a,b,夾角為θ組成的平行四邊形的面積。
而c的方向垂直於a與b所決定的平面,c的指向按右手定則從a轉向b來確定。
*運算結果c是乙個偽向量。這是因為在不同的座標系中c可能不同。
4.性質
行列式計算法如下:
5.座標運算
設=(),=()。i,j,k分別是x,y,z軸方向的單位向量,則:
a×b=(-)i+(-)j+(-)k,為了幫助記憶,利用三階行列式,寫成det
6.證明
為了更好地推導,我們需要加入三個軸對齊的單位向量i,j,k。
i,j,k滿足以下特點:
i=jxk;j=kxi;k=ixj;
kxj=–i;ixk=–j;jxi=–k;
ixi=jxj=kxk=0;(0是指0向量)
由此可知,i,j,k是三個相互垂直的向量。它們剛好可以構成乙個座標系。
這三個向量的特例就是i=(1,0,0)j=(0,1,0)k=(0,0,1)。
對於處於i,j,k構成的座標系中的向量u,v我們可以如下表示:
u=xui+yuj+zu*k;
v=xvi+yvj+zv*k;
那麼uxv=(xui+yuj+zuk)x(xvi+yvj+zvk)
=xuxv(ixi)+xuyv(ixj)+xuzv(ixk)+yuxv(jxi)+yuyv(jxj)+yuzv(jxk)+zuxv(kxi)+zuyv(kxj)+zuzv(kxk)
由於上面的i,j,k三個向量的特點,所以,最後的結果可以簡化為
uxv=(yuzv–zuyv)i+(zuxv–xuzv)j+(xuyv–yuxv)*k。[1]
7.與數量積的區別
注:向量積≠向量的積(向量的積一般指點乘)
一定要清晰地區分開向量積(矢積)與數量積(標積)。見下表。[1]
8.應用
(1)已知空間三個點,計算三角形的面積。
(2)判斷空間四點是否共面
初識機器學習演算法有哪些?
機器學習無疑是現在資料分析領域的乙個重要內容,凡事從事it工作領域的人都在平時的工作中或多 或少的會用到機器學習的演算法。機器學習有很多演算法,不過大的方面可分為兩類 乙個是學習的方式,乙個是演算法的類似性。學習方式 根據資料型別的不同,對乙個問題的建模有不同的方式。在機器學習或者人工智慧領域,人們...
機器學習實戰 5 支援向量積
1 是一種二分類模型,它的目的是尋找乙個超平面來對樣本進行分割,分割的原則是間隔最大化,最終轉化為乙個凸二次規劃問題來求解。由簡至繁的模型包括 當訓練樣本線性可分時,通過硬間隔最大化,學習乙個線性可分支援向量機 當訓練樣本近似線性可分時,通過軟間隔最大化,學習乙個線性支援向量機 當訓練樣本線性不可分...
機器學習中,常用的損失函式有哪些?
1 0 1 loss 記錄分類錯誤的次數。2 hinge loss 最常用在svm中 最大優化間隔分類 中,對可能的輸出t 1和分類器分數y,值y的hinge loss定義如下 l y max 0.1 t y 3 log loss對數損失 對於 對數函式 由於其具有 單調性 在求最優化問題時,結果與...