본문 바로가기

ML, DL/딥러닝 기초

Batch norm, layer norm, instance norm, group norm

http://dongsarchive.tistory.com/74 

 

Batch Norm, Layer Norm, Instance Norm, Group Norm

다양한 Normalization 기법들이 있어서 정리하고자 포스팅한다. Network layer의 output을 normalize 하는 경우 트레이닝 타임이 크게 감소하고, 학습이 잘 된다. 잘 되는 이유에는 초기에는 Internal Covariate S..

dongsarchive.tistory.com

 

'ML, DL > 딥러닝 기초' 카테고리의 다른 글

OOD (out of distribution detection)  (1) 2022.10.08
검색 키워드 정리  (0) 2022.10.08
GPGPU,CUDA, cuDNN  (1) 2022.10.08
Feedforward Network  (0) 2022.08.03