- 기존 Vanilla GAN의 문제점은 mode collapse, vanishing gradients와 같은 문제점들이 존재
- GAN의 value function을 minimizing하는 것은 data와 모델 분포 $x$와의 Jensen-Shannon(JS) divergence을 minimizing 하는 것과 동일하다.
※ Jensen-Shannon divergence : 간단히 얘기하면 두 모델의 확률 분포 distance
그러나 vanilla GAN은 JS divergence으로 인해 GAN training의 어려움이 있다고 해서 나온 것이 Wasserstein distance
'딥러닝관련' 카테고리의 다른 글
배치(batch) 처리의 이점 (0) | 2021.05.12 |
---|---|
신경망 정리 2 (선형 함수, 비선형 함수, ReLU, Softmax, 행렬 계산...) (3) | 2021.05.02 |
CAM 및 Grad-CAM 정리 (0) | 2021.01.29 |
GAN — Wasserstein GAN & WGAN-GP (0) | 2021.01.18 |