BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
Google Machine Learning Bootcamp 2022 에서 "NLP 논문 리뷰 스터디" 에 참여하며 정리한 자료입니다
BART : pretrained seq2seq (denoising-autoencoder)
여러가지 noising 기법 중 결과가 좋았던 2가지 방식 소개
BART의 우수한 성능 : discriminative, generative task
댓글 영역