# 原子範數
> 區別於$l_1$範數只能用來處理稀疏向量和核範數只能處理稀疏矩陣,原子範數通過選取不同的基向量,可以有處理不同的問題。
## 一、定義
### 1.1 原子範數
$$||x||_a = \inf \ $$
簡單的說,這是乙個由a中的向量構成的乙個凸包$conv(a)$通過整體的尺度變換使得$x$恰好落入$tconv(a)$中,把最後的尺度變換$t$作為$||x||_a$的值。
###1.2 對偶範數
$$||z||_a^* = \sup \limits_ \left\langle \right\rangle $$
顯然,$$\left\langle \right\rangle \le ||x||_a||z||_a^*$$
## 二、凸優化問題
###2.1 優化問題
$$\min \limits_x ||x - y||_2^2 + \tau ||x||$$
其中,$y=x^*+w,x^*$ 是真實值,$x$是估計值
###2.2 對偶問題
原問題等價於
$$\min \limits_x ||x - y||_2^2 + \tau ||u||_a,s.t. u=x$$
對應的lagrange函式為 $$l(x,u,z)= ||x-y||_2^2 +\tau ||u||_a +z^t(u-x)$$
那麼,lagrange對偶函式為 $$g(z)=\inf \limits_x l(x,u,z)= (||y||_2^2 - ||y-z||_2^2 ) + \inf \limits_x (\tau ||u||_a +z^tu)$$
所以,對偶問題為 $$ \max \limits_z (||y||_2^2 - ||y-z||_2^2 ), s.t. ||z||_a^* \le \tau $$
其中,$$y = \hat x + \hat z,\left\langle \right\rangle = \tau || \hat x ||_a $$
###2.3 均方誤差上限
$$e||\hat x - x^*||_2^2 \le \tau ||x^*||_a$$
## 三、線譜估計
給定原訊號的奈奎斯特抽樣結果為
$$x_m^*: = (}) = \sum \limits_^k }} ,m = 0, \ldots ,n - 1$$
其中,$f_l^=$ 為數字頻率。
$x_m^*$是下面這個集合中k個元素的線性組合。
$$a=\[1,e^,\ldots e^],f \in [0,1], \phi \in [0,1]\}$$
可以認為$a$是乙個無窮字典。
記$$a_=e^[1,e^,\ldots e^]$$
顯然,$$x=\sum \limits_c_k a_$$
另外,記
$$u=\sum \limits_c_k a_$$
那麼,對偶範數可以寫成
$$||v||_a^*=\sup \limits_ \left\langle }\right\rangle=\sup \limits_\sup \limits_ e^\sum \limits_^ v_l e^ = \sup \limits_ \left|\sum \limits_^ v_l z^l \right|$$
記$$v(f)=\sum \limits_^ v_l e^ $$
所以,$$||v||_a^* \le \tau \leftrightarrow \left|v(f)\right|^2 \le \tau^2, \forall f \in [0,1]$$
而且,有定理保證,
$$\left|v(f)\right|^2 \le \tau^2 \leftrightarrow \left\(q) = \cr
\left[ } & 1 \cr
} } \right] \ge 0 \cr} \right .$$
應付暫估及在途物資科目用法解析
1.gr ir 科目是什麼?首先我們來看乙個最簡單,最理想化的採購商品或原材料的情況。採購100元的商品或者原材料,付給 商100元現金。會計分錄 借 商品 原材料 100 貸 現金 100 但是現實中的mm採購流程是這樣的 採購申請me51n optional 採購訂單 me21n 商品入庫 mi...
GCC數值原子操作API原理及應用
c c 中數值操作,如自加 n 自減 n 及賦值 n 2 操作都不是原子操作,如果是多執行緒程式需要使用全域性計數器,程式就需要使用鎖或者互斥量,對於較高併發的程式,會造成一定的效能瓶頸。1.概要 為了提高賦值操作的效率,gcc提供了一組api,通過彙編級別的 來保證賦值類操作的原子性,相對於涉及到...
深度學習 L1及L2範數
在深度學習中,監督類學習問題其實就是在規則化引數同時最小化誤差。最小化誤差目的是讓模型擬合訓練資料,而規則化引數的目的是防止模型過分擬合訓練資料。引數太多,會導致模型複雜度上公升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們需要保證模型足夠簡單,並在此基礎上訓練誤差小,這樣訓練得到的引數才能...