半監督學習
【假設】
要利用未標記樣本,必然要做一些將未標記樣本所揭示的資料分布資訊與類別標記相聯絡的假設。
假設一:" 聚類假設" (duster assumption) ,即假設資料存在簇結構,同乙個簇的樣本屬於同乙個類別。
假設二:「流形假設」 (manifold assumption) , 即假設資料分布在乙個流形結構上,鄰近的樣本擁有相似的輸出值"鄰近" 程度常用"相似"程度來刻畫,因此,流形假設可看作聚類假設的推廣, 但流形假設對輸出值沒有限制,因此比聚類假設的適用範圍更廣,可用於更多型別的學習任務。
事實上,無論聚類假設還是流形假設,其本質都是"相似的樣本擁有相似的輸出"這個基本假設。
【型別】
半監督學習可進一步劃分為純半監督學習和直推學習。前者假定訓練資料中的未標記樣本並非待**的資料,而後者則假定學習過程中所考慮的未標記樣本恰是待**資料,換言之,純半監督學習是基於"開放世界"假設, 希望學得模型能適用於訓練過程中未觀察到的資料;而直推學習是基於"封閉世界"假設,僅試圖對學習過程中觀察到的未標記資料進行**。
換言之,假設有如下的資料集,其中訓練集為xl+xu,測試集為xtest,標記樣本數目為l,未標記樣本數目為u,l《純半監督學習可以對測試樣本xtest進行**,直推學習僅僅可以對未標記樣本xu進行標記,模型不具備對測試樣本xtest進行泛化的能力。
半監督學習
一般認為,半監督學習的研究始於 b.shahshahani 和 d.landgrebe 的工作 shahshahanil94 但未標記示例的價值實際上早在上世紀 80 年代末就已經被一些研究者意識到了 lippman89 d.j.miller 和 h.s.uyar milleru97 認為,半監督學...
半監督學習
最近的一段時間一直在學習半監督學習演算法,目前,國內的南京大學周志華老師是這方面的泰斗,寫了很多這方面牛的文章,可以參考一下他的主頁 在國內的學術界周老師一直是我比較欽佩的人之一。下面貼出來的文章出自周老師之手,通俗易懂。受益匪淺。一般認為,半監督學習的研究始於 b.shahshahani 和 d....
半監督學習
目前,國內的南京大學周志華老師是這方面的泰斗,寫了很多這方面牛的文章,可以參考一下他的主頁 下面貼出來的文章出自周老師之手,通俗易懂。受益匪淺。一般認為,半監督學習的研究始於 b.shahshahani 和 d.landgrebe 的工作 shahshahanil94 但未標記示例的價值實際上早在上...