BERT는 Bidirectional Encoder Representations from Transformers의 약자로 오픈소스 코드까지 공개된 구글의 새로운 Language Representation Model 입니다. 그간 높은 성능을 보이며 좋은 평가를 받아온 ELMo를 의식한 이름에, 무엇보다 NLP 11개 태스크에 state-of-the-art를 기록했습니다.
BERT는 주로 대량 데이터로 pretrain 된 모델을 받아 finetuning하여 원하는 task를 해결하는데 사용합니다. pretraining을 위해서는 대량의 데이터와 고사양의 컴퓨터가 필요하고, 각국의 언어(자연어)로 training 해둔 좋은 pretrained model이 이미 존재하기 때문에 해결하고자하는 task를 잘 정의하면 다양한 pretrained model을 이용하여 문제를 풀 수 있습니다. 하지만 직접 pretrained model을 만들고자 할 땐 어떻게할까요?
[ BERT로 영화리뷰 긍부정 후기 분류 모델 만들어보기 ] 는 제가 원글(https://www.topbots.com/pretrain-transformers-models-in-pytorch/)의 코드를 따라가며 실습한 내용을 담은 러닝패스입니다. 단계별 과정을 이해하며 실습해봅시다! 😉
📔 준비 nvidia gpu를 사용가능한 컴퓨터가 필요해요. ubuntu 에서 실습을 진행할거에요. *colab 에서 실습하면 위 세팅 없이 바로 실습해 볼 수 있어요. python 언어를 알아야해요. 자연어처리의 tokenize, tensor의 개념을 알아야해요.
👩🏻🎓 이 러닝패스를 학습한 이후엔, 자연어 데이터로 pretrain(사전학습)된 BERT 모델을 만들 수 있어요. pretrain된 BERT 모델을 활용할 수 있어요.