給定訓練集,產生與訓練集同分布的新樣本。
希望學到乙個模型,其與訓練樣本的分布相近。
無監督學習裡的乙個核心問題:密度估計問題。
典型思路:
利用鏈式準則將影象x的生成概率轉變為每個畫素生成概率的乘積。
缺點是:畫素的生成是序列的進行訓練,生成整張的效率太慢了。
二者的優點:似然函式可以精確計算;利用似然函式的值可以有效地評估模型效能。
二者的缺點:序列產生=>慢
無監督的特徵學習,其目標是利用無標籤資料找到乙個有效地低維的特徵提取器。
對輸入資料進行降維,採用的方法是自編碼器(早先使用的方法是線性方法,後來出現了全連線神經網路,最後使用卷積神經網路)。
特徵降維的作用是:希望降維後的特徵僅保留資料中有意義的資訊。
整體的方法就是將輸入資料通過編碼器提取特徵,然後對特徵使用解碼器重構輸入資料,也就是保證輸出和輸入盡可能的重合。
經過訓練後的編碼器就可以用於分類任務,但是效果沒有直接用vgg等的好,因為它保留的是樣本特徵,而沒有特別保留樣本間的區別特徵,但是在分類中,這個樣本間的區別特徵或許會更加的重要。而訓練後的解碼器就可以用於生成,類似於給定乙個資料,可以通過解碼器自動生成一張數字等。
優點:生成模型裡的一種主要方法,可以計算出乙個特徵,這個特徵表示可以用在其他的許多任務重。
缺點:最大化似然函式的下邊界能夠有效地工作,但是模型不好評估;與gan相比,產生的樣本模糊,質量較低。
問題:希望從訓練樣本分佈中取樣新資料,但這個分布不僅維度高而且還很複雜,難以直接實現。
解決方案:對乙個簡單的分布取樣,比如均勻分布;然後,學習一種對映將其變換到訓練樣本分佈。
生成網路:期望能夠產生盡量真實的,進而騙過判別器。
判別網路:期望能夠準確的區分真假。
在這個過程中採用的是minimax的方式聯合訓練。基本流程是首先訓練判別,是的整個式子的值盡可能的大。然後訓練生成器,是的能夠盡量的騙過判別器,讓判別器輸出結果為1。
gan總結:
dcgan:
dcgan構架在訓練過程中狀態穩定,並可以有效實現高質量的生成,因此,現在的很多gan都是在它的基礎上進行改進的。
dcgan提了四種規則:
lsgan:
gan網路在訓練時經常出現d太過於強大,很快就能分出真假,一些點離決策邊界非常遠,所處位置梯度是0.這部分樣本很難被拉到真實點附近。
解決方案:將判別器任務由分類改成回歸任務。
wgan:
推土機距離:
γ表示需要從xp中拿多少土放入xq中,二正規化表示xp和xq之間的距離。然後推土機距離是要在所有方案中選擇 那個最小的距離方案。
條件gan:
問題:acgan:
計算機視覺 回歸模型
本文仍然是基於computer vision models,learning,and inference這本書的閱讀筆記與心得。雖然看的雲裡霧裡的,但不寫下來恐怕很快一點都不記得了。看的過程還是很吃力,感覺自己在學機器學習與概率論,在公式中掙扎。本章講的是機器學習兩大問題之一的回歸模型,討論的主要是...
(計算機視覺)計算機視覺基礎
opencv cximage cimg freeimage opencv中vc庫的版本與visual studio版本的對應關係 vc8 2005 vc9 2008 vc10 2010 vc11 2012 vc12 2013 vc14 2015 vc15 2017 visual studio中的輔助...
計算機視覺
主講老師 曹洋 課程 視覺 基礎 底 層處理 影象處理 特徵提 取 中 層處理 影象分割 相機標 定 深度 估計 運 動估計 高層處 理 3d 重建 目 標識別 視 覺基 礎 底層 處理 圖 像處理 特徵提取 中層 處理 圖 像分割 相機標定 深度估 計 運動 估計 高層處理 3d重 建 目標 識別...