本文內容包括向量,標量,點乘,叉乘,梯度,散度,旋度,複數的三種表現形式(笛卡爾,指數,極座標),三種座標系(笛卡爾,圓柱,球)及其對應的線路,面積,體積積分,拉普拉斯運算元,散度定理,旋度定理
不包含方向資訊
包含方向資訊
點乘,輸入兩個向量,得到乙個標量,可以理解為乙個向量在另乙個向量上的投影
叉乘,輸入兩個向量,得到乙個向量,可以理解為求出同時垂直於兩個向量的向量,方向由叉乘的順序決定(右手定則)
導數梯度,輸入模型的標量,得到向量,函式沿該向量變化率最大
散度,輸入模型的向量,得到標量,表示發散的強度(通源量密度)
旋度,輸入模型的向量,得到向量,表示旋轉方向(右手定則,四指為旋轉方向,拇指為旋度方向)和繞著這個旋轉軸旋轉的環量與旋轉路徑圍成的面元的面積之比
name
realtionship
gradf
∇fdivf
∇ · f
curlf
∇ × f
a = a + jb (a > 0, b > 0)
a = ae^jθ
a = a∠θ
θ是線與x軸正方向的夾角
先對模型求梯度,得到乙個向量,再對該向量求散度
#散度定理和旋度定理
此處以計算做功為例:f(r
)f(r)
f(r)
為在r處的力的函式,r為路線的函式
做功是∫f(
r)⋅d
r∫f(r)·dr
∫f(r)⋅
dr,可以用乙個引數t代替力和路徑裡的x,y,z,然後計算∫f(
r(t)
)⋅r(
t)dt
∫f(r(t))·r(t)dt
∫f(r(t
))⋅r
(t)d
t在起點和終點不變的情況下,路徑的變換可能會導致積分結果不同
這是線積分的一種特殊情況,下方的四條描述可以互相證明,滿足任何乙個描述即代表滿足其它三條描述
①f (r
)⋅dr
=f1d
x+f2
dy+f
3dzf(r)·dr=f_1dx+f_2dy+f_3dz
f(r)⋅d
r=f1
dx+
f2d
y+f3
dz在區域d內與路徑無關
②某個f的梯度gradf等於f
③對區域d內的曲線c的路線積分等於0
④(如果d是單連通的)curlf = 0
單連通代表d的平面沒有漏洞
路徑無關的積分滿足∫f®·dr = ∫gradf·dr = f(b) - f(a)
f的梯度為f,b是積分終點,a是積分起點
1.確定幾個輸入,即積分的起點a和終點b,積分的公式f(x,y,z),沒有z則視為 0dz
2.求積分公式的旋度 ∇×f,如果結果為0,則證明此積分路徑無關(也證明了可以找到梯度為f的公式f)
3.求f,方法是依次尋找x,y,z對各自偏導的積分
4.已知f對x的偏導是a,則可以通過a對x積分得到:∫a dx+g(y,z),g是乙個未知方程
5.已知f對y的偏導是b,對∫a dx求對y的偏導,結果和b對比,得出g=原式+h(z),h(z)是乙個未知方程
6.已知f對z的偏導是c,對f求對z的偏導,得出h(z)和最終的f (f會帶有乙個常數c)
7.最後,求f(b)-f(a)得出結果
su***ce integral 可以被拆解為四步
找到面的引數方程r(u,v)
通過n =r
u×rv
n=r_u\times r_v
n=ru×
rv找到面的法向量n,注意這裡的n求出來方向不一定是正的,需要代入某個點來觀察它的方向
∬fn dudv
代入fn
還有一種是∬sg
(r)d
a=∬r
g(r(
u,v)
)∣n(
u,v)
∣dud
v\iint_s g(r)da=\iint_rg(r(u,v))|n(u,v)|dudv
∬sg(r
)da=
∬rg
(r(u
,v))
∣n(u
,v)∣
dudv
和上面不同的只是得出n
nn之後的操作
軟體工程基礎概念
記錄軟體工程基礎的學習過程,第一篇 軟體工程基礎概念。什麼是軟體?什麼是軟體工程?理解工程之前先理解什麼是科學和技術。科學是對自然本質及其執行規律的探索 發現和揭示,然後被歸納為公認的真理。科學以發現核心,純粹出於好奇心,往往沒有實際目的。簡單來說,技術就是改善人來生活的手段。技術講究的是技巧,其目...
機器學習概念與數學基礎
一.什麼是機器學習 概率模型 神經網路 都是為了擬合輸入與輸出之間的關係 all models are wrong,but some are useful.george e.p.box 二.機器學習的應用 人工智慧 智慧型系統 計算神經學 機器學習等都是人工智慧的分支 模式識別 訊號 影象 聲音等找...
控制工程機器學習數學基礎
方差 標準差 均方差 mean square error,mse 均方誤差是反映估計量與被估計量之間差異程度的一種度量,換句話說,引數估計值與引數真值之差的平方的期望值。mse可以評價資料的變化程度,mse的值越小,說明 模型描述實驗資料具有更好的精確度。協方差 協方差在概率論和統計學中用於衡量兩個...