tokenizer = AutoTokenizer.from_pretrained(base_model)
tokenizer.add_special_tokens({'additional_special_tokens': special_tokens})
padding_value = tokenizer.pad_token_id
print("Trying to load model with transformers...")
query_enc = QueryEncoder(base_model=base_model)
passage_enc = PassageEncoder(base_model=base_model)
#### special token을 추가하면 resize_token_embeddings를 해줘야 함
query_enc.query_encoder.resize_token_embeddings(len(tokenizer))
passage_enc.passage_encoder.resize_token_embeddings(len(tokenizer))
Trainer 클래스 커스텀해주는데 자꾸 에러가 나서 accelerate 관련 에러 인줄 알고 삽질하다가
아래 글을 보고 임베딩에 문제가 있다고...?
생각해보니 special token을 추가해서 기존 50032을 넘어가는 토큰 번호가 생겨서 생기는 에러였다.
'Dev Notes > ML' 카테고리의 다른 글
Deepspeed 배치 사이즈 관련 파라미터 정리 (0) | 2023.08.20 |
---|---|
머신러닝 프로덕션 코드를 구성하는 방법 (0) | 2023.06.25 |
C++에서 ONNX runtime 사용하기 (0) | 2023.06.11 |
Torchserve 사용 방법과 경로 설정 (0) | 2023.04.20 |
[MLops 기초] 프로덕션 환경에서의 머신러닝 시스템이란? (0) | 2023.04.18 |