작성자 : 김승일(모두의연구소 연구소장)
발표일 : 20201012 at DeepLAB 논문반
학습자료
논문 링크
함께 보면 좋을 참고자료
- Attention is All You Need (Transformer를 처음 제안한 논문)
Attention Is All You Need
- Illustrated Transformer (Transformer를 알기 쉽게 표현해 주는 블로그)
The Illustrated Transformer
- BERT (Transformer를 이용한 Pre-trained Language Model)
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Illustrated BERT (BERT를 알기 쉽게 표현해 주는 블로그)
The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)
논문 요약