ML theory 2

Optimzer 정리

헷갈리면 들어와서 볼 수 있도록 정리한 글. 1. Stochastic Gradient Descent Gradient Descent 방법을 mini batch 단위로 적용시키는 방법. 가장 기본 방법. 2. Momentum 이전에 적용했던 gradient 값도 반영시키는 방법. \(v_{t}\)는 적용될 gradient의 크기 혹은 속도로 표현됨. 3. Adagrad gradient의 제곱을 이용하여 학습 방향을 조정. (다른 곳에선 \(h\)로 표기하는데 식을 가져온 사이트에선 \(g\)로 표기했다.) 이 때 제곱은 각 요소들의 제곱으로 사실은 저런 표현은 헷갈리는 표현이다. $$ \bigtriangledown_{\theta}\mathcal{L}(\theta)^{2} = \bigtriangledown_{..

ML theory 2022.03.31

Variational AutoEncoder (VAE)

이번 글은 Explicit Generative model 중 가장 대표적인 Variational Auto-Encoder에 대해 공부한 내용을 정리하려고 합니다. Explicit model은 Implicit model에 비해 성능이 떨어지지만 저희가 알고 있는 분포를 기반으로 모델링이 되기 때문에 데이터와 결과에 대한 분석이 더 용이하여 사용될 수 있다고 합니다. Implicit model인 GAN에 비해서 정확히 어떤 식으로 활용되는지는 솔직히 아직 잘 모르겠네요.. 그러나 머신 러닝을 한다면 VAE 정도는 알고 있어야 하지 않을까 싶은 마음에 자세하게 공부를 하게 되었고, 공부한 내용을 정리하는 글을 쓰고자 합니다. 본 글은 "An Introduction to Variational Autoencoder..

ML theory 2022.03.06