채널에서 써보고 싶은 10b 모델을 발견해서 양자화시키려고 from awq import AutoAWQForCausalLM from transformers import AutoTokenizer import accelerate model_path = 'path of model/llama-3-10b-it-kor-extented-chang' quant_path = 'path of model/llama-3-10b-it-kor-extented-chang_fp16' quant_config = { "zero_point": True, "q_group_size": 128, "version": "FP16" } # Load model model = AutoAWQForCausalLM.from_pretrained(model_path, **{"low_cpu_mem_usage": True}) tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) # Quantize model.quantize(tokenizer, quant_config=quant_config) # Save quantized model model.save_quantized(quant_path) tokenizer.save_pretrained(quant_path)
이런식으로 코드를 적용했는데,
FileNotFoundError: No such file or directory: "모델위치/llama-3-10b-it-kor-extented-chang/model-00001-of-00004.safetensors"
이런식으로 에러가 발생합니다.. 아마도 AutoAWQ에서
model-00001-of-00004.safetensors 이 파일을 불러오려다가 실패한것 같은데, 이런식이면 무조건 safetensors파일이 4개만 있는 파일만 양자화가 가능한건가요? 이 모델의 경우
model-00001-of-00008.safetensors 이런식으로 8개의 세이프텐서 파일이 있는데, 어떤식으로 적용해야될지 궁금합니다..
너무 초보적인 질문인것 같아서 죄송합니다..ㅠ