What is the difference between sequence-to-sequence and . . . If you want to predict i events after the given sequence, you can use seq-to-seq (the second sequence with the size of i) and when you want to predict the next step of the input sequence, you can using seq-to-one to predict the next step of the input sequence
[Transformer 이해하기 1] Sequence-to-Sequence, seq2seq 설명 및 코드리뷰 먼저 Encoder를 표현한 식을 살펴봅시다 $$h_t = \text{EncoderRNN} (e(x_t), h_{t-1})$$ Sequence 형태의 데이터를 처리하는 데 유용한 RNN (e g LSTM, GRU ) 을 인코더로 사용하게 됩니다 여기서 $e$는 임베딩 함수로, input 문장을 적절한 형태의 벡터로 변환해주는 함수입니다
seq2seq (sequence-to-sequence)란 무엇인가? seq2seq(sequence-to-sequence) 모델은 한 시퀀스를 다른 시퀀스로 변환하는 작업을 수행하는 딥러닝 모델로, 주로 자연어 처리(NLP) 분야에서 활용됩니다 이 모델은 인코더(Encoder)와 디코더(Decoder)라는 모듈을 가지고 있습니다
시퀀스-투-시퀀스 (sequence-to-sequence) 간단히 이해하기 "나는 학생이다"를 번역하면 "I am a student"가 나오는 것처럼 seq2seq는 기본적으로 입력 시퀀스와 출력 시퀀스의 길이가 다를 수 있다고 가정합니다 실습 관련 코드는 코랩(Colab) 파일로 대체하겠습니다