原子範數及線譜估計

2022-09-01 04:30:12 字數 1910 閱讀 8815

# 原子範數

> 區別於$l_1$範數只能用來處理稀疏向量和核範數只能處理稀疏矩陣,原子範數通過選取不同的基向量,可以有處理不同的問題。

## 一、定義

### 1.1 原子範數

$$||x||_a = \inf \ $$

簡單的說,這是乙個由a中的向量構成的乙個凸包$conv(a)$通過整體的尺度變換使得$x$恰好落入$tconv(a)$中,把最後的尺度變換$t$作為$||x||_a$的值。

###1.2 對偶範數

$$||z||_a^* = \sup \limits_ \left\langle \right\rangle $$

顯然,$$\left\langle \right\rangle \le ||x||_a||z||_a^*$$

## 二、凸優化問題

###2.1 優化問題

$$\min \limits_x ||x - y||_2^2 + \tau ||x||$$

其中,$y=x^*+w,x^*$ 是真實值,$x$是估計值

###2.2 對偶問題

原問題等價於

$$\min \limits_x ||x - y||_2^2 + \tau ||u||_a,s.t. u=x$$

對應的lagrange函式為 $$l(x,u,z)= ||x-y||_2^2 +\tau ||u||_a +z^t(u-x)$$

那麼,lagrange對偶函式為 $$g(z)=\inf \limits_x l(x,u,z)= (||y||_2^2 - ||y-z||_2^2 ) + \inf \limits_x (\tau ||u||_a +z^tu)$$

所以,對偶問題為 $$ \max \limits_z (||y||_2^2 - ||y-z||_2^2 ), s.t. ||z||_a^* \le \tau $$

其中,$$y = \hat x + \hat z,\left\langle \right\rangle = \tau || \hat x ||_a $$

###2.3 均方誤差上限

$$e||\hat x - x^*||_2^2 \le \tau ||x^*||_a$$

## 三、線譜估計

給定原訊號的奈奎斯特抽樣結果為

$$x_m^*: = (}) = \sum \limits_^k }} ,m = 0, \ldots ,n - 1$$

其中,$f_l^=$ 為數字頻率。

$x_m^*$是下面這個集合中k個元素的線性組合。

$$a=\[1,e^,\ldots e^],f \in [0,1], \phi \in [0,1]\}$$

可以認為$a$是乙個無窮字典。

記$$a_=e^[1,e^,\ldots e^]$$

顯然,$$x=\sum \limits_c_k a_$$

另外,記

$$u=\sum \limits_c_k a_$$

那麼,對偶範數可以寫成

$$||v||_a^*=\sup \limits_ \left\langle }\right\rangle=\sup \limits_\sup \limits_ e^\sum \limits_^ v_l e^ = \sup \limits_ \left|\sum \limits_^ v_l z^l \right|$$

記$$v(f)=\sum \limits_^ v_l e^ $$

所以,$$||v||_a^* \le \tau \leftrightarrow \left|v(f)\right|^2 \le \tau^2, \forall f \in [0,1]$$

而且,有定理保證,

$$\left|v(f)\right|^2 \le \tau^2 \leftrightarrow \left\(q) = \cr

\left[ } & 1 \cr

} } \right] \ge 0 \cr} \right .$$

應付暫估及在途物資科目用法解析

1.gr ir 科目是什麼?首先我們來看乙個最簡單,最理想化的採購商品或原材料的情況。採購100元的商品或者原材料,付給 商100元現金。會計分錄 借 商品 原材料 100 貸 現金 100 但是現實中的mm採購流程是這樣的 採購申請me51n optional 採購訂單 me21n 商品入庫 mi...

GCC數值原子操作API原理及應用

c c 中數值操作,如自加 n 自減 n 及賦值 n 2 操作都不是原子操作,如果是多執行緒程式需要使用全域性計數器,程式就需要使用鎖或者互斥量,對於較高併發的程式,會造成一定的效能瓶頸。1.概要 為了提高賦值操作的效率,gcc提供了一組api,通過彙編級別的 來保證賦值類操作的原子性,相對於涉及到...

深度學習 L1及L2範數

在深度學習中,監督類學習問題其實就是在規則化引數同時最小化誤差。最小化誤差目的是讓模型擬合訓練資料,而規則化引數的目的是防止模型過分擬合訓練資料。引數太多,會導致模型複雜度上公升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們需要保證模型足夠簡單,並在此基礎上訓練誤差小,這樣訓練得到的引數才能...