논문 링크 : https://arxiv.org/abs/1409.3215

참고 코드 링크 :

Abstract


  1. 여러층의 LSTM을 사용하여 EncoderDecoder 네트워크를 분리하여 학습 (긴 문장에도 좋은 성능)
  2. 입력 문장을 받은 Encoder는 마지막 hidden state에서 출력된 고정 크기의 벡터를 출력하고, Decoder는 이 벡터를 사용해 문장을 생성
  3. WMT' 14 데이터 셋을 이용, 영어→불어 번역에서 BLEU 스코어 34.8점을 달성함 (SMT : 33.3)
  4. 학습 과정에서 입력 문장의 순서를 뒤집어서 훈련하니 더 좋은 성능이 나옴

1. Introduction


Machine Translation 기법