(GPT) Improving Language Understanding by Generative Pre-Training 논문 리뷰
Improving Language Understanding by Generative Pre-Training (GPT) 논문 리뷰 Google Machine Learning Bootcamp 2022 에서 "NLP 논문 리뷰 스터디" 에 참여하며 정리한 자료입니다 Abstract Natural Language Understanding 을 위한 모델로, Unlabeled Dataset 을 활용할 수 있는 GPT를 제안한다 아래의 두가지 방법을 결합함으로써 Unlabeled Dataset 을 활용하여 더 좋은 모델(GPT)을 얻는 것이 가능하다 Generative pre-training : Language Model 방식으로 Unlabeled text data 를 학습 Discriminative fin-tuni..
paper review/NLP
2022. 7. 9. 01:24