我看的是liu yang的survey: distance metric learning: a comprehensive survey.
裡面總結道,eric xing等把metric learning formulate成這樣乙個凸優化問題:
\begin
\min\limits_^} & \sum\limits_,) \in \mathcal} - } \right\|_a^2}\\
\text \quad & a\succeq 0, \sum\limits_} _a^2\ge 1
\end
然後,解這個優化問題的困難主要是$a\succeq 0$這個半正定條件造成的,所以,為了簡化計算,考慮將$a$在樣本的特徵空間中進行分解。
用同類約束集$\mathcal$和異類約束集$\mathcal$中的所有樣本集合:
\begin
\mathcal=(x_1, \cdots, x_n)
\end
然後對樣本特徵的pairwise correlation:
\begin \label m=\frac\sum_^x_i x_i^t \end
進行特徵分解,得到前$k$個最大的特徵值對應的特徵向量$\_^$組合來逼近$a$:
\begin a=\sum_^\gamma_i v_i v_i^t,\quad \gamma_i\ge0,\quad i=1,\cdots,k \end
這其中,$\gamma_i$都是非負的。
我疑惑的是,在式子(
\ref)計算 $m$ 時,為什麼用的是correlation(相關)而不是covariance(協方差)呢?也就是說,為什麼不對樣本 $\$ 進行零均值化呢?
container of 的的的原理
另外一篇,同樣精彩,揭開linux核心中container of的神秘面紗 華清遠見嵌入式學院講師。在linux 核心中有乙個大名鼎鼎的巨集container of 這個巨集是用來幹嘛的呢?我們先來看看它在核心中是怎樣定義的。呵呵,乍一看不知道是什麼東東。我們先來分析一下container of p...
存在的就是合理的,發生的即是必然的。
筆者有時候會想,什麼是對,什麼是錯?對於追求某一件事情之前首先會考慮,為什麼我要做這件事情。所以經過自我分析和生活周邊環境的總結。我認為,對於乙個人來,這是在站在個體的角度上說。什麼是對的?就是你自己覺得是對的,它就是對的。不過這個只是你自己的想法。主觀上的正確,不代表客觀上也受到了別人的認可。就拿...
Apache的rewrite的重寫相關的引數
apache mod rewrite規則重寫的標誌一覽 使用mod rewrite時常用的伺服器變數 rewriterule規則表示式的說明 匹配任何單字元 chars 匹配字串 chars chars 不匹配字串 chars text1 text2 可選擇的字串 text1或text2 匹配0到1...