[공유] KorQuAD & KoWIKI 질문 답변 쌍 데이터로 fine-tuning(pre-train) 이후 train_dataset 으로 fine-tune #2 #14
coderJoon
started this conversation in
Show and tell
Replies: 1 comment
-
잘 읽어봤습니다. learning rate가 큰 영향을 주네요 👍 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
klue/RoBERTa-large + KorQuAD + Ko WIKI 로 1차 fine-tune (pre-train) 을 진행하였고, 2차로 train_dataset 을 7e-7 이라는 learning_rate 로 학습을 진행한 결과 :
이후 팀원들의 조언을 받아서 좀 더 높은 learning_rate 를 사용해보는게 어떠냐는 추천으로 새로운 실험 진행.
learning_rate 9e-6 , batch_size 16 , 2epoch 학습:
동일 설정, 3 epoch 학습 시 성능 :
동일 설정, 4 epoch 학습 시 성능 :
결론:
3 epoch 으로 학습한 Reader 모델이 제일 좋은 성능을 보여서 3 epoch 모델로 사용할 예정.
Beta Was this translation helpful? Give feedback.
All reactions