BERT input representation (BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)
BERT에서 제안된 input Sequence
[CLS] x1,x2,x3,…,xn [SEP], y1,y2,y3,…,ym [EOS] 의 구조임
x1
x2
x3
xn
y1
y2
y3
ym
xn / ym 이 각 파트의 최대 길이 일때, max(n + m) < max_seq_length임 (512)
xn
ym