Baseline 성능 향상을 위한 SOTA Model 사용
https://github.com/zengyan-97/Transformer-DST
Transformer-DST 공식 Git에서 Git Clone에서 Baseline코드 수정
MutliWOZ 데이터셋을 사용했기 때문에 Preprocessor를 WOS 데이터셋에 맞게 수정
Tokenizer와 Encoder, Decoder를 모두 BERT_base에서 Koearn BERT로 수정
TransformerDST 전용 Inference.py 코드 작성
다음 git을 server에 clone한다.
Transformer-DST 구조는 다음과 같은 구조를 가진다. (Baseline 삽입 기준)