KorBERT; Korean Bidirectional Encoder Representations from Transformers 구글의 BERT를 기반으로 한국어에 최적화시킨 자연어 처리 모델 한국전자통신연구원(ETRI)의 엑소브레인 사업에서 개발 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능 23기가(GB)에 달하는 지난 10년간의 신문기사와 백과사전 정보 더해 45억개의 형태소 학습 참고 문헌 한국어 언어모델 ‘코버트’ 공개... AI 서비스 개발 한층 고도화될 듯