1. f-divergence

用f-divergence来衡量两个分布得不同
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
不同的f(x)对应不同的divergence
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
用f(x)得Fenchel Conjugate将f(x)表示出来再带入D
令D(x)代替t,即输入为x输出为t=D(x),得到初始的f-divergence,此时是f-divergence得lower bound
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
接下来就是要找一个最好的D,来近似f-divergence
最后找一个G,使得f-divergence最小
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
各种不同得f(x)得到的divergence【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization

那么如何变成原始的GAN呢?

令D得输出**函数为sigmoid函数,之后取log就得到原始GAN得loss fuction的第一项:
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization
对应于第一个表格得倒数第二行和第二个表格的倒数第三行。他这里只不过用的是负对数

然后将f*(t)中的t用gf代替就得到原始GAN得loss fuction的第二项:
【f-GAN】f-GAN:Training Generative Neural Samplers using Variational Divergence Minimization

相关文章:

  • 2022-01-12
  • 2021-07-04
  • 2021-11-18
  • 2021-05-29
  • 2021-12-05
  • 2022-01-08
猜你喜欢
  • 2021-11-14
  • 2022-12-23
  • 2022-01-08
  • 2021-10-31
  • 2022-01-14
  • 2021-09-16
  • 2021-12-16
相关资源
相似解决方案