항상 감사하며 마633

고정 헤더 영역

글 제목

메뉴 레이어

항상 감사하며 마633

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (93)
    • 개발 (59)
      • 개발환경설정 (6)
      • python-심화(Advanced) (23)
      • python-객체지향프로그래밍(OOP) (21)
      • python-병렬처리 (7)
      • python-속도향상(optimization) (2)
    • Study (16)
      • DeepLearning from scratch (16)
    • paper review (15)
      • NLP (15)
    • Google Machine Learning Boo.. (3)

검색 레이어

항상 감사하며 마633

검색 영역

컨텐츠 검색

transformer-xl

  • XLNet: Generalized Autoregressive Pretraining for Language Understanding 논문 리뷰

    2022.07.22 by Matthew0633

XLNet: Generalized Autoregressive Pretraining for Language Understanding 논문 리뷰

XLNet: Generalized Autoregressive Pretraining for Language Understanding 논문 리뷰 Google Machine Learning Bootcamp 2022 에서 "NLP 논문 리뷰 스터디" 에 참여하며 정리한 자료입니다 XLNet 은 긴 길이의 문맥 학습을 효과적으로 할 수 있는 Transformer-XL 구조를 사용했으며, permutation language modeling 을 사전학습의 objective로 사용함으로써, AR 및 AE 의 장점을 모두 갖춘 모델이다. Abstract 기존 SOTA 모델인 BERT 한계점 Pre-training 에서 사용하는 masking 기법은 fine-tuning과의 차이를 발생시키는 한계를 지닌다 Masking..

paper review/NLP 2022. 7. 22. 14:00

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
항상 감사하며 마633 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바