IT용어위키



코버트

KorBERT; Korean Bidirectional Encoder Representations from Transformers
구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델
  • 한국전자통신연구원(ETRI)엑소브레인 사업에서 개발
  • 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능
  • 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습

코버트.jpg

참고 문헌


  출처: 공대위키(공대위키에서 최신 문서 보기)
  * 본 페이지는 공대위키에서 미러링된 페이지입니다. 일부 오류나 표현의 누락이 있을 수 있습니다. 원본 문서는 공대위키에서 확인하세요!