Lecture 18: Unsupervised Learning - Deep Generative Model

VAE

  • 一般autoencoder是在encode之後會產生出code,然後decoder會把它還原成原圖
  • VAE在encode後會在code上加入noise,並且希望在某張圖encode之後,它附近的code也能還原成原圖

  • (noise的variance)不能太小

  • 需要估計P(x)的大小,才能sample出比較有可能的x

    • 使用 Gaussian Mixture Model
      • P(m):data屬於這個gaussian的機率
      • P(x|m):data在這個gaussian中,被取出的機率
  • :根據x所產生的mean

  • :根據x所產生的variance

Conditional VAE

  • 以MNIST而言,輸入某個digit(例如4),可以畫出同樣style的其他digit(0~9)

Problems of VAE

  • 只會模仿,無法以假亂真

Generative Adversarial Network

  • 訓練generator時,需要固定住discriminator的參數
  • 難點:

    • 無法知道generator騙過discriminator時,到底是因為generator表現很好還是因為discriminator太爛了
    • 同理,discriminator表現很好時,也無法知道到底是不是generator產生的東西太爛了,導致discriminator看起來好像做得不錯
  • 較有用的tip是使得discriminator更加穩健(robust)

results matching ""

    No results matching ""