Full Citation: “Ho, Jonathan, Ajay Jain, and Pieter Abbeel. “Denoising diffusion probabilistic models.” Advances in neural information processing systems 33 (2020): 6840-6851.”
Link to Paper: https://arxiv.org/abs/2006.11239
Conference Details: NIPS 2020 \
Full Citation: “Sohl-Dickstein, Jascha, et al. “Deep unsupervised learning using nonequilibrium thermodynamics.” International conference on machine learning. PMLR, 2015.”
Link to Paper: https://arxiv.org/abs/1503.03585
Conference Details: PMLR 2015 \
Full Citation: “Chen, Ricky TQ, et al. “Neural ordinary differential equations.” Advances in neural information processing systems 31 (2018).”
Link to Paper: https://arxiv.org/abs/1806.07366
Conference Details: NIPS 2018 \
Full Citation: “Park, Taesung, et al. “Semantic image synthesis with spatially-adaptive normalization.” Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019.”
Link to Paper: https://arxiv.org/abs/1903.07291
Conference Details: CVPR 2019 \
Full Citation: “Choi, Yunjey, et al. “Stargan: Unified generative adversarial networks for multi-domain image-to-image translation.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.”
Link to Paper: https://arxiv.org/abs/1711.09020
Conference Details: CVPR 2018
수정예정
지난 포스트로 GAN 논문 리뷰를 마쳤고 이 포스트는 GAN의 코드를 한번 분석 해보겠다.
지난 포스트에서 GAN의 아키텍처부분을 살펴보았고 이번에는 수학적으로 왜 GAN이 잘 동작하는지에대해 증명하는 부분과 실험결과 및 결론에대해서 마무리해보겠다.
2014년 Ian. j. Goodfellow에의해 발표된 새로운 방식의 Generative trainning framework 이다. 모델 아키텍처나 코드를 보면 정말 단순하지만 그 원리에관한 이론은 절대로 단순하지 않고 매우 심오하며 어렵다. 3만번이 넘게 인용되었으며 여러 후속시리즈가 계속해서 나오는 매우 근본있고 인기있는 논문임이 틀림없다.
Full Citation: “Arjovsky, Martin, Soumith Chintala, and Léon Bottou. “Wasserstein generative adversarial networks.” International conference on machine learning. PMLR, 2017.”
Link to Paper: https://arxiv.org/pdf/1701.07875.pdf
Conference Details: PMLR 2017
여러가지 NLP process 중 하나이면서 정말 중요한 Relation Classification(Relation Extraction)을 Convoluton filter를 이용하여 해결하는 방법을 제시했던 논문이다.