- KorBERT; Korean Bidirectional Encoder Representations from Transformers
- 구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델
- 한국전자통신연구원(ETRI)의 엑소브레인 사업에서 개발
- 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능
- 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습
출처: IT위키 (IT위키에서 최신 문서 보기)
* 본 페이지는 IT Wiki에서 미러링된 페이지입니다. 일부 오류나 표현의 누락이 있을 수 있습니다. 원본 문서는 IT Wiki에서 확인하세요!