Hongmin

  • 홈
  • 태그
  • 방명록

Optimizer 1

Optimzer 정리

헷갈리면 들어와서 볼 수 있도록 정리한 글. 1. Stochastic Gradient Descent Gradient Descent 방법을 mini batch 단위로 적용시키는 방법. 가장 기본 방법. 2. Momentum 이전에 적용했던 gradient 값도 반영시키는 방법. \(v_{t}\)는 적용될 gradient의 크기 혹은 속도로 표현됨. 3. Adagrad gradient의 제곱을 이용하여 학습 방향을 조정. (다른 곳에선 \(h\)로 표기하는데 식을 가져온 사이트에선 \(g\)로 표기했다.) 이 때 제곱은 각 요소들의 제곱으로 사실은 저런 표현은 헷갈리는 표현이다. $$ \bigtriangledown_{\theta}\mathcal{L}(\theta)^{2} = \bigtriangledown_{..

ML theory 2022.03.31
1
더보기
프로필사진

일상블로그 blog.naver.com/nhmnhm0819 nhmnhm0819@naver.com

  • 분류 전체보기 (33)
    • ML theory (2)
    • CNN (Image Classification) (4)
    • Optical Flow (2)
    • GAN (5)
    • Detection (3)
    • python (2)
    • docker (3)
    • kubernetes (3)
    • computer (1)
    • MLOps (6)
    • Network (2)

Tag

gauGAN, raft, Optical Flow, 감정인식, detectron, subprocess, ESR-9, Detectron2, VAE, ASAPNet, GAN, Variational Autoencoder, U-GAT-IT, kubeflow, mask rcnn, NFNet, DCLGAN, CNN, Kubernetes, flownet,

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

Copyright © Kakao Corp. All rights reserved.

티스토리툴바