Papers/Machine learning

Pre-training vs Rand Initialization

tomato13 2020. 7. 29. 23:47

Augment S1보다 S4가 보다 heavy 하게 augmenation을 진행하게 된다. 

내용의 요지는 augmentation을 보다 많이 적용하고 training dataset이 많아질 수록 Pre-trained backbone보다는 처음부터 학습을 새로 진행하는 것이 효과적이라는 것이다. 

 

https://www.youtube.com/watch?v=d8EDoHDEgvI