< 목차 >
1. 확률적 경사 하강법(SGD)
2. SGD 단점
3. Momentum(모멘텀)
4. AdaGrad
5. Adam
6. 가중치의 초기값
7. 배치 정규화
8. 가중치 감소
9. 드롭아웃
10. 적절한 하이퍼파라미터 값 찾기
'iWSL > CNN and RNN' 카테고리의 다른 글
[ 밑바닥부터 시작하는 딥러닝 ] 8장. 딥러닝 (0) | 2024.08.04 |
---|---|
[ 밑바닥부터 시작하는 딥러닝 ] 7장. 합성곱 신경망 (0) | 2024.08.04 |
[ 밑바닥부터 시작하는 딥러닝 ] 5장. 오차역전파법 (0) | 2024.08.04 |
[ 밑바닥부터 시작하는 딥러닝 ] 4장. 신경망 학습 (0) | 2024.08.04 |
[ 밑바닥부터 시작하는 딥러닝 ] 3장. 신경망 (0) | 2024.08.04 |