plda(probabilistic linear discriminant analysis)也是一種通道補償演算法,號稱概率形式的lda演算法。plda同樣通常是基於i-vector特徵的,因為i-vector特徵即包含說話人資訊又包含通道資訊,而我們只關心說話人資訊,所以才需要通道補償。plda演算法的通道補償能力比lda更好,已經成為目前最好的通道補償演算法。
通道補償演算法
通道補償演算法的意義在於減少i-vector特徵中通道資訊對說話人資訊的干擾。從模式識別的角度而言,使用通道補償的目的是增大類間的離散度並且降低類內的離散度,以此獲得更高的區分性,提高系統效能。
通道補償主要分為三個層次:
基於特徵的補償(重點)
基於模型的補償
基於得分的補償
關於plda的經典**是這一篇《probabilistic linear discriminant analysis for inferences about identity》。
在這篇**中:plda與lda的關係就好比因子分析和主成分分析pca的關係。所以,我們有必要先簡單提一下因子分析。
因子分析
因子分析(factor analysis) 是一種資料簡化的技術。它通過研究眾多變數之間的內部依賴關係,探求觀測資料中的基本結構,並用少數幾個假想變數來表示其基本的資料結構。這幾個假想變數能夠反映原來眾多變數的主要資訊。原始的變數是可觀測的顯在變數,而假想變數是不可觀測的潛在變數,稱為因子。
下面從網上摘抄乙個因子分析的例子
概念理解
在聲紋識別領域中,我們假設訓練資料語音由i個說話人的語音組成,其中每個說話人有j段自己不同的語音。那麼,我們定義第i個說話人的第j條語音為xij。然後,根據因子分析,我們定義xij的生成模型為:
這個模型可以看成兩個部分:
等號右邊前兩項只跟說話人有關而跟說話人的具體某一條語音無關,稱為訊號部分,這描述了說話人類間的差異;
等號右邊後兩項描述了同一說話人的不同語音之間的差異,稱為噪音部分。這樣,我們用了這樣兩個假想變數來描述一條語音的資料結構。
我們注意到等號右邊的中間兩項分別是乙個矩陣和乙個向量的表示形式,這便是因子分析的又一核心部分。這兩個矩陣f和g包含了各自假想變數空間中的基本因子,這些因子可以看做是各自空間的特徵向量。比如,f的每一列就相當於類間空間的特徵向量,g的每一列相當於類內空間的特徵向量。而兩個向量可以看做是分別在各自空間的特徵表示,比如hi就可以看做是xij在說話人空間中的特徵表示。在識別打分階段,如果兩條語音的hi特徵相同的似然度越大,那麼這兩條語音就更確定地屬於同乙個說話人。
模型訓練
容易理解,plda的模型引數乙個有4個,分別是資料均值μ
μμ,空間特徵矩陣f和g,雜訊協方差σ
σσ。模型的訓練過程採用經典的em演算法迭代求解。為什麼用em呢?因為模型含有隱變數。
模型測試
在測試階段,我們不再像lda那樣去基於consine距離來計算得分,而是去計算兩條語音是否由說話人空間中的特徵hi生成,或者由hi生成的似然程度,而不用去管類內空間的差異。在這裡,我們使用對數似然比來計算得分。如下圖所示:
公式中,如果有兩條測試語音,這兩條語音來自同一空間的假設為hs,來自不同的空間的假設為hd,那麼通過計算對數似然比,就能衡量兩條語音的相似程度。得分越高,則兩條語音屬於同一說話人的可能性越大。
由於我們只關心區分不同的說話人的類間特徵而不用去管同乙個說話人的類內特徵,所以其實沒有必要向上面一樣對類內空間g引數進行求解。於是,我們可以得到乙個簡化版本的plda,如下如:
plda 學習筆記
plda的計算公式如下 假設語音資料由i個人構成,第i個人的第j條語音xij u f hij gwij ij x u fh gw xij u fhi j g wij ij 理解這個公式 u uu是指所有資料的均值 f ff是指各種身份的基底,包含了表示各種身份的特徵 h ij h hi j 是指說話...
des演算法描述 DES演算法描述簡介
des演算法描述簡介 1 簡介 des是data encryption standard 資料加密標準 的縮寫。它是由ibm公司研製的一種加密演算法,美國國家標準局於1977年公布把它作為非機要部門使用的資料加密標準,二十年來,它一直活躍在國際保密通訊的舞台上,扮演了十分重要的角色 10 des是乙...
1 2 演算法描述
習題2 霍納規則 horner s method 用來簡化樸素多項式的求值,在中國叫秦九韶演算法。霍納規則是一種將一元n次多項式求值問題轉化為n個一次式演算法。其大大簡化了計算過程,即使在現代,利用計算機解決多項式的求值問題時,霍納規則依然是最優的演算法規則。霍納規則是採用最少的乘法運算策略,求多項...