Sequence-to-Sequence (Seq2Seq)- sequence를 다른 sequence로 바꾸어 주는 모델- Encoder와 Decoder로 구성Encoder: 입력 데이터(한국어)를 context vector로 압축Decoder: context vector에서 출력 데이터(영어)를 유추- 문제점Context vector의 크기는 고정/ sequence가 길어지면 정보 손실이 발생 Attention특정 출력값을 만들어내기 위해 입력값 중 관련 있는 부분을 더 집중 Transformer- 일반적인 Seq2Seq 모델과 마찬가지로 Encoder-Decoder 구조- 데이터를 병렬적으로 처리 가능=> How? - Positional encoding! Positional Encoding- 입력 데이터의..