38. 오, 근데 weight decay는 좀 일반화를
시키나봅니다. 랜덤 라벨에서 train data에 대한
정확도가 줄었네요
39. '그럼 그냥 기존의 모델이나 논문에서
걸었던 data augmentation이나 weight
decay나 batch norm 같은 걸 빼면
어떨까...?'
40. '그럼 그냥 기존의 모델이나 논문에서
걸었던 data augmentation이나 weight
decay나 batch norm 같은 걸 빼면
어떨까...?
기존에 해왔던 것이 전부 사기일리는
없으니까… 랜덤 라벨링 안 한 정상적인
데이터에선 저런 기법들이 돌아가긴
하잖아'
41.
42.
43. 네, 기법의 조합이나 구조에 따라서
달라지긴 하지만 잘 작동합니다. 특히,
batch norm이 있고 없고는 inception에서
굉장한 차이가 있습니다.