1. 矩陣y對標量x求導:
相當於每個元素求導數後轉置一下,注意m×n矩陣求導後變成n×m了
y = [y(ij)]
--> dy/dx = [dy(ji)/dx]
2. 標量y對列向量x求導:
注意與上面不同,這次括號內是求偏導,不轉置,對n×1向量求導後還是n×1向量
y = f(x1,x2,..,xn)
--> dy/dx = (dy/dx1,dy/dx2,..,dy/dxn)'
3. 行向量y'對列向量x求導:
注意1×m向量對n×1向量求導後是n×m矩陣。
將y的每一列對x求偏導,將各列構成乙個矩陣。
重要結論:
dx'/dx = i
d(ax)'/dx = a'
4. 列向量y對行向量x』求導:
轉化為行向量y』對列向量x的導數,然後轉置。
注意m×1向量對1×n向量求導結果為m×n矩陣。
dy/dx' = (dy'/dx)'
5. 向量積對列向量x求導運算法則:
注意與標量求導有點不同。
d(uv')/dx = (du/dx)v' +
u(dv'/dx)
d(u'v)/dx = (du'/dx)v +
(dv'/dx)u'
重要結論:
d(x'a)/dx = (dx'/dx)a +
(da/dx)x' = ia + 0x' = a
d(ax)/dx' = (d(x'a')/dx)' =
(a')' = a
d(x'ax)/dx = (dx'/dx)ax +
(d(ax)'/dx)x = ax + a'x
6. 矩陣y對列向量x求導:
將y對x的每乙個分量求偏導,構成乙個超向量。
注意該向量的每乙個元素都是乙個矩陣。
7. 矩陣積對列向量求導法則:
d(uv)/dx = (du/dx)v +
u(dv/dx)
d(uv)/dx = (du/dx)v +
u(dv/dx)
重要結論:
d(x'a)/dx = (dx'/dx)a +
x'(da/dx) = ia + x'0 = a
8. 標量y對矩陣x的導數:
類似標量y對列向量x的導數,
把y對每個x的元素求偏導,不用轉置。
dy/dx = [ dy/dx(ij) ]
重要結論:
y = u'xv = σσu(i)x(ij)v(j)
於是 dy/dx = = uv'
y = u'x'xu 則 dy/dx =
2xuu'
y = (xu-v)'(xu-v) 則 dy/dx =
d(u'x'xu - 2v'xu + v'v)/dx = 2xuu' - 2vu' + 0 = 2(xu-v)u'
9. 矩陣y對矩陣x的導數:
將y的每個元素對x求導,然後排在一起形成超級矩陣。
向量轉置的怎麼求導 補充 向量函式求導
在學習數值優化的過程中,遇到了這麼乙個函式 是乙個n維向量,分別是另乙個函式的函式值,梯度和黑塞矩陣.很容易知道這個函式的輸入是乙個n維向量,輸出的是乙個實數.那麼如果對這個函式進行求導,又會變成什麼樣?向量與常數向量相乘後的求導 設求導變數 是常數向量.那麼有 所以有 由里奇微積分,可得 由於黑塞...
向量轉置的怎麼求導 順序理解向量和矩陣求導
最首先需要明確,f a 對a求導,是將a視作了自變數,將f a 視作因變數。自變數的描述形式一般為n行1列的列向量或矩陣,因變數的描述形式一般為1行m列的行向量或矩陣!向量和矩陣求導的關鍵在於,找到自變數和因變數,並確定其維度!向量部分 所有推理的基礎,0 4節。矩陣部分 一句話,結果是超向量,完事...
向量轉置的怎麼求導 機器學習中的向量求導和矩陣求導
首發於 首先,在機器學習中,對於研究經常需要用到的標量 向量 矩陣的求導,我們約定分子使用 根據上面的約定,我們研究一下五個分類 標號1 標號5對應後續標題 如下 上面的 表示我們主要討論的6個種類,對於矩陣對向量的求導 向量對矩陣的求導 矩陣對矩陣的求導 不予考慮。在機器學習中,我們預設向量用列向...