Validation Set을 통한 검증을 통해 모델 성능 향상 및 학습속도 가속
Validation Loss를 통한 학습 모니터링이 안 되는 부분 개선 필요
Train-Validation split 시에 Random하지 않고 사람을 기준으로 나누기
기존 3개의 클래스를 분류하여 통합하는 방식 대신 18개의 클래스를 학습
사용자 지정 Transform을 인자로 받기
Albumentation시에 format 관련 ByteTensor 문제가 있었지만 완벽히 해결
Layer Freezing 시도해보자는 의견 ⇒ Layer 마다 Learning Rate가 달라야할 것 같음
for para in self.efficientNet.parameters():
para.requires_grad = False
self.efficientNet._fc.weight.requires_grad = True
LR Scheduler에서 Cos Annealing 방식에서 성능 향상의 효과가 있었음
Ensemble, K-Fold 등의 다양한 기법 활용 예정
Label Smoothing, F1 loss 등 loss function 변경을 통한 성능향상
Cut Mix, TTA 등 Augmentation 진행
Shell Script
sh train.sh
역할 분담: Validation dataset 분리, layer freezing, Label smoothing, F-1 Loss, Early stopping, K-fold validation, cutMix, TTA, Model 고정 후 Transforming 최적화