最近的一篇wasserstein gan火遍朋友圈,相關的文章也拿來讀一讀,趕個時髦
文章用博弈論,令生成模型和判別模型的相愛相殺後,得到與訓練資料分布盡可能接近的生成模型,乙個扮演打假者,乙個扮演造假者,前者試圖在真貨與假貨中辨別哪個樣本是假貨(生成的),哪個是真貨(真實樣本),後者不斷提高自己的製假水平,不讓前者辨別出來
文章全名:generative adversarial nets
這是生成對抗網路的開山之作,發表之後,無數相關**雪花般飄落
判別模型可以認為就是一般的二分類模型,分辨真偽,因此,當生成模型一定時,最優值即為下式
分子為真實資料,分母的右側為生成模型造出的資料
生成模型要使得差別模型盡可能無法識別,因此目標函式同時包含二者的成分,即最小化下式
或最大化
所以,綜合目標為
訓練過程分為兩步:
1、訓練判別模型,迭代k次
2、訓練生成模型,只迭代1次
兩個模型都是神經網路,對資料的分布不作假設,因此極易過擬合,所以兩個步驟的訓練都採用了不充分的訓練,特別是生成模型,盡量讓擬合速度慢下來,擬合的過程如下圖:
黑點代表訓練資料分布,藍色是判別介面,綠色是生成資料分布。如(a)所示,一開始兩個模型都是離各自目標比較遠的,在(b)中,判別模型首先發力,取得了更為清晰的判別面,在(c)中,生成模型與之對抗,生成模型與訓練資料越來越像,最後,如(d),生成資料分布與訓練資料完全重合,判別模型的**結果是50%-50%,完全不能區分。
具體的訓練過程:
四組示例的最右邊一列,是臨近的左側的生成的最接近實際樣本,所有資料均是隨機給出,並非精心挑選
半監督生成對抗網路 生成對抗網路
一 生成對抗網路相關概念 一 生成模型在概率統計理論中,生成模型是指能夠在給定某些隱含引數的條件下,隨機生成觀測資料的模型,它給觀測值和標註資料序列指定乙個聯合概率分布。在機器學習中,生成模型可以用來直接對資料建模,也可以用來建立變數間的條件概率分布。通常可以分為兩個型別,一種是可以完全表示出資料確...
生成對抗網路
我們提出乙個框架來通過對抗方式評估生成模型,我們同時訓練兩個模型 乙個生成模型g捕捉資料分布,乙個鑑別模型d估計乙個樣本來自於訓練資料而不是g的概率。g的訓練過程是最大化d犯錯的概率。這個框架與minmax兩個玩家的遊戲相對應。在任意函式g和d的空間存在乙個唯一解,g恢復訓練資料的分布,d等於1 2...
生成對抗網路
0.監督和無監督 本質 有無標籤資料 1.自動編碼器 只是重構原輸入 輸入 編碼 中間表示 潛在表示,code 解碼 重構 通常用於 1 忽略雜訊 2 壓縮維度 有聚類效果 可以達到pca和主成分分析效果 2.變分自動編碼器 vae variational autoencoders 可以生成新的樣本...