LanguageData

고정 헤더 영역

글 제목

메뉴 레이어

LanguageData

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (49)
    • ETC (4)
    • ML (8)
    • NLP (17)
    • LangChain (18)
    • Competition (0)
    • Paper (2)

검색 레이어

LanguageData

검색 영역

컨텐츠 검색

torch

  • BERT

    2023.01.09 by LYShin

BERT

- BERT는 자연어처리 모델에서 큰 성능향상을 가져온 모델/학습 방법입니다. - BERT를 기반으로 다양한 모델이 파생되어 현재까지 많은 분야에서 사용되고 있습니다. - 본 글에서는 BERT에 대해 간략히 소개합니다. 1. 학습 방법 BERT모델을 학습하는 방법은 Masked Language Model(MLM)과 Next Sentence Prediction(NSP)입니다. MLM은 특정 확률로 마스킹된 단어를 예측하여 학습하는 방법이고, NSP는 두 개의 문장이 실제로 연결된 문장인지를 예측하여 학습하는 방법입니다. MLM은 입력 문장에서 각 단어를 K%의 확률로 마스킹하는데, 논문에서는 15%의 확률을 사용합니다. 만약 마스킹이 너무 적다면 학습 효율이 떨어지고, 너무 많다면 문장의 맥락을 파악하기 ..

NLP 2023. 1. 9. 15:17

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
LanguageData © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바