http://dongsarchive.tistory.com/74
Batch Norm, Layer Norm, Instance Norm, Group Norm
다양한 Normalization 기법들이 있어서 정리하고자 포스팅한다. Network layer의 output을 normalize 하는 경우 트레이닝 타임이 크게 감소하고, 학습이 잘 된다. 잘 되는 이유에는 초기에는 Internal Covariate S..
dongsarchive.tistory.com
'ML, DL > 딥러닝 기초' 카테고리의 다른 글
OOD (out of distribution detection) (1) | 2022.10.08 |
---|---|
검색 키워드 정리 (0) | 2022.10.08 |
GPGPU,CUDA, cuDNN (1) | 2022.10.08 |
Feedforward Network (0) | 2022.08.03 |