按元素乘法有時候被稱為hadamard 乘積,或者schur 乘積
訊號與系統等學科中的
卷積操作的本質,神經網路中的卷積就是乘累加;
訊號處理中的卷積就是加權疊加。具體點,平移(無反褶)、疊加。可以看到卷積的重要的物理意義是:乙個函式(如:單位響應)在另乙個函式(如:輸入訊號)上的加權疊加。 樓主這種做法和通常教材上的區別在於:書上先反褶再平移,把輸入訊號當作乙個整體,一次算出乙個時間點的響應值;而樓主把訊號拆開,一次算出乙個訊號在所有時間的響應值,再把各個訊號相加。兩者本質上是相同的。
參考資料:
矩陣乘以列向量的話用矩陣的每一行乘以列向量;行向量乘以矩陣的話用行向量乘以矩陣的每一列,
設a為m*p的矩陣,b為p*n的矩陣,那麼稱m*n的矩陣c為矩陣a與b的乘積,記作c=ab
點乘,也叫向量的內積、數量積.顧名思義,求下來的結果是乙個數。
向量a·向量b=|a||b|cos ;
在物理學中,已知力與位移求功,實際上就是求向量f與向量s的內積,即要用點乘;
在物理學中,已知力與力臂求力矩,就是向量的外積,即叉乘。
向量的外積不遵守乘法交換率,因為 向量a×向量b=-向量b×向量a
將向量用座標表示(三維向量),
若向量a=(a1,b1,c1),向量b=(a2,b2,c2),則
向量a·向量b=a1a2+b1b2+c1c2
向量a×向量b=
| i j k|
|a1 b1 c1|
|a2 b2 c2|
=(b1c2-b2c1,c1a2-a1c2,a1b2-a2b1)
(i、j、k分別為空間中相互垂直的三條座標軸的單位向量)。
kronecker:上取樣,如果a是乙個 m x n 的矩陣,而b是乙個 p x q 的矩陣,克羅內克積則是乙個 mp x nq 的矩陣。
是指在數學中,兩個集合x和y的笛卡尓積(cartesian product),又稱直積,表示為x × y,第乙個物件是x的成員而第二個物件是y的所有可能有序對的其中乙個成員。
例子:設a,b為集合,用a中元素為第一元素,b中元素為第二元素構成有序對,所有這樣的有序對組成的集合叫做a與b的笛卡爾積,記作axb.
a×b=
例如,a=, b=,則
a×b=
b×a=
可以擴充套件到多個集合的情況。類似的例子有,如果a表示某學校學生的集合,b表示該學校所有課程的集合,則a與b的笛卡爾積表示所有可能的選課情況。
機器學習基礎 math(17) 各種距離
任意滿足測度的 4 個條件的函式都可以被定義為距離。non negativity or separation axiom 非負性或分離公理 identity of indiscernibles 不可分辨的同一性 symmetry 對稱性 subadditivity or inequality 次可加...
機器學習基礎 math(5) 矩陣
主成分分析 pca 的時候,會需要矩陣的跡。對上面的線性方程組,第乙個方程和第二個方程有不同的解,而第2個方程和第3個方程的解完全相同。從這個意義上說,第3個方程是 多餘 的,因為它沒有帶來任何的資訊量,把它去掉,所得的方程組與原來的方程組同解。為了從方程組中去掉多餘的方程,自然就匯出了 矩陣的秩 ...
機器學習基礎 math(10) P值
乙個統計指標,許多科學領域中的研究結果的意義均是由p值來判斷的。它們被用來證明或駁回乙個 零假設 通常假定所測試的效果並不存在。當p值越小,該實驗結果是由純粹的偶然所造成的可能性就越小。由於樣本採集的有限性,他通常只能以小樣本數來進行統計平均,不過在這研究的過程中,他發現小樣本統計平均結果不滿足他一...