將\(\sum_^nk\)轉為封閉式方法:成套方法
轉為遞迴式
令\(s(n)=\sum_^nk\)
不難看出,\(s(n)=s(n-1)+n\)
一般化令\(r(n)\)為\(s(n)\)的一般形式
即\(r(0)=\alpha \qquad r(n)=r(n-1)+\beta n+\gamma\)
(1) 令\(r(n)=1\)
\[\therefore r(0)=1
\]\[\therefore \alpha = 1
\]\[\because r(n)=r(n-1)+\beta n+\gamma
\]\[\therefore 1=1+\beta n + \gamma
\]\[ \left\
\alpha = 1 \\
\beta = 0 \\
\gamma = 0
\end
\right.
\](2) 令\(r(n)=n\)
\[\therefore r(0) = 0
\]\[\therefore \alpha = 0
\]\[\because r(n)=r(n-1)+\beta n+\gamma
\]\[\therefore n = (n-1)+\beta n + \gamma
\]\[ \left\
\alpha = 0 \\
\beta = 0 \\
\gamma = 1
\end
\right.
\](3) 令\(r(n) = n^2\)
\[\therefore r(0) = 0
\]\[\therefore \alpha = 0
\]\[\because r(n)=r(n-1)+\beta n+\gamma
\]\[\therefore n^2 = (n-1)^2+\beta n + \gamma
\]\[\therefore n^2 = n^2 - 2n + 1+\beta n + \gamma
\]\[\therefore -1 =(\beta - 2) n + \gamma
\]\[ \left\
\alpha = 0 \\
\beta = 2 \\
\gamma = -1
\end
\right.
\]3.計算係數
令\(r(n)=a(n)\alpha + b(n)\beta + c(n)\gamma\)
(1) 當\(r(n) = 1\)時:
\[\because\left\
\alpha = 1 \\
\beta = 0 \\
\gamma = 0
\end
\right.
\]\[\therefore a(n) = 1
\](2) 當\(r(n) = n\)時:
\[\because\left\
\alpha = 0 \\
\beta = 0 \\
\gamma = 1
\end
\right.
\]\[\therefore c(n) = n
\](3) 當\(r(n) = n^2\)時:
\[ \left\
\alpha = 0 \\
\beta = 2 \\
\gamma = -1
\end
\right.
\]\[\therefore 2b(n) - c(n) = n^2
\]綜上:
\[ \left\
a(n) = 1 \\
c(n) = n \\
2b(n) - c(n) = n^2
\end
\right.
\]解得
\[ \left\
a(n) = 1 \\
b(n) = \frac \\
c(n) = n
\end
\right.
\]4.具體化
\[s(n) = s(n-1) + n
\]令\(p(n)\)為當\(\beta = 1, \gamma = 0\)時\(r(n)\)的值
\[\therefore p(n) = p(n-1) + n = s(n)
\]\(\therefore s(n)\)為當\(\beta = 1, \gamma = 0\)時\(r(n)\)的值
\[\therefore s(n) = b(n)
\]\[\therefore s(n) = \frac
\]
3 數學基礎與深度學習
紮實的數學基礎是學習和研究深度學習的前提。沒有線性代數和統計學相關的知識,無法真正理解任何機器學習演算法的核心思想。在此要求所有的新生學習相關的數學基礎課程。prof.gilbert strang在mit講的線性代數 膜拜 是工科領域最強線代。來自cmu,世界上最好的工科統計學教材。學習內容 書上全...
3D Math 3D 數學 向量與點2
最近有粉絲反應,3d 數學可以不學嗎,太枯燥了。我想說這個是你在圖形界的立身之本,這些其實並不難,踏下心來看一下,基礎的也那些東西,還是再接再厲吧,堅持是不變的真理!今天來聊一下向量的運算,向量可以和標量 向量 矩陣進行運算,這裡先不談矩陣。負向量 即把向量的每乙個分量變負,且向量加上自身的負向量等...
深度學習 應用數學與機器學習基礎 3
矩陣分解除了分解成特徵值和特徵向量。還有一種分解矩陣的方法,被稱為奇異值分解 singular value decomposition svd 將矩陣分解為奇異向量和奇異值。通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。每個實數矩陣都有乙個奇異值分解,但不一定有特徵分解。回想一下,我們使用...