신경망 학습은 손실 함수 값을 가능한 낮추는 매개변수, 즉 최적 매개변수를 찾는 문제이며, 이 문제를 해결하는 것을 최적화라고합니다.
이 방법에는 여러 가지가 있습니다.
1. 확률적 경사 하강법 ( SGD )
2. 모멘텀
3. AdaGrad
학습을 진행시키면서 학습률을 감소시키는 방법입니다.
h라는 변수에 과거의 기울기를 계속 제곱해서 더해주고, 매개변수에 1 /√h을 곱해줌으로 학습률을 조정합니다.
4. RMSProp
AdaGrad는 과거의 기울기를 계속 제곱해서 더해주기 때문에 어느 순간에 0이 되어서 매개변수가 갱신이 되지 않습니다.
이를 개선한 방법이 RMSProp으로 먼 과거의 기울기는 잊고 새로운 기울기 정보를 크게 반영하는 지수이동평균이라는 새로운 방법입니다.
5. Adam
반응형
'Coding > DeepLearning' 카테고리의 다른 글
CNN 합성곱 신경망 (0) | 2020.03.12 |
---|---|
오차역전파법 ( 내용 추가 중 ) (0) | 2020.03.10 |
신경망 학습 (0) | 2020.03.08 |
신경망 Neural network 이란? - 2 (0) | 2020.03.07 |
신경망 Neural network 이란? - 1 (0) | 2020.02.29 |