반응형 Natural Language Processing/NLP1 논문 읽기[Seq2Seq] - Sequence to Sequence Learning with Neural Networks Abstract - DNN은 레이블된 학습 데이터 셋을 쓸 때 성능이 좋음. 하지만 Sequence to sequence를 mapping 하는데 사용 불가능 - 고정된 차원 벡터의 Input LSTM(Encoder), Output을 출력하는 또 다른 LSTM(Decoder)로 구성. - English to French 번역인 WMT'14 데이터 셋 사용, *BELU Score는 34.8 - pharse-based SMT system의 BELU score는 33.3, LSTM에 SMT system을 적용시 BELU Score 36.5 - 입력 문장을 뒤집는 방법을 통해 LSTM의 성능 상승. 입력 문장과 출력 문장의 단기 의존도가 생겨 최적화가 쉬워짐. * BELU Score : 변역의 퀄리티를 평가하는 .. 2022. 8. 13. 이전 1 다음 반응형