Papers/Machine learning
Pre-training vs Rand Initialization
tomato13
2020. 7. 29. 23:47
Augment S1보다 S4가 보다 heavy 하게 augmenation을 진행하게 된다.
내용의 요지는 augmentation을 보다 많이 적용하고 training dataset이 많아질 수록 Pre-trained backbone보다는 처음부터 학습을 새로 진행하는 것이 효과적이라는 것이다.
https://www.youtube.com/watch?v=d8EDoHDEgvI