確定研究方向後一直在狂補理論,最近看了一些文章,有了些想法,順便也總結了representation系列的文章,由於我剛接觸,可能會有些不足,願大家共同指正。
從稀疏表示到低秩表示系列文章包括如下內容:
一、 sparse representation
二、ncsr(nonlocallycentralized sparse representation)
三、ghp(gradienthistogram preservation)
四、group sparsity
五、rankdecomposition
二、 nonlocallycentralized sparse representation
此部分是上篇的續篇,介紹sparse representation 的改進
關於矩陣的低秩表示的學習
研究的課題方向為非剛性結構運動 non rigid structure from motion 的三維重建,在看 時,看到乙個低秩表示 low rank representation 的討論 low rank representation for matrix recovery 矩陣恢復的低秩表示 ...
從特徵表示到深度學習
最近一直在學習特徵表達和學習的理論基礎,從稀疏編碼到卷積神經網路,直到最近很火的深度學習,感覺有那麼些啟發。特此記錄一下學習新得。影象特徵的表達從開始的畫素表示,到後來畫素特徵組成的特徵描述子 sift,surf,hog等 都是為了尋找最有效的資訊表達,如何將特徵進行加工和處理得到更加深入層次的表示...
階乘之計算從入門到精通 大數的表示
階乘之計算從入門到精通 大數的表示 1.大數,這裡提到的大數指有效數字非常多的數,它可能包含少則幾 十 幾百位十進位制數,多則幾百萬或者更多位十進位制數。有效數字這麼多的數隻具有數學意義,在現實生活中,並不需要這麼高的精度,比如銀河系的直徑有10萬光年,如果用原子核的直徑來度量,31位十進位制數就可...