llama.cpp 에 보면, convert-lora-to-ggml.py 를 이용해서 lora 파일을 cpp용 ggml과 호환이 되도록 변환이 가능한 것 같은데, beomi/KoAlpaca-13B-LoRA 를 변환해보려고 

python3 convert-lora-to-ggml.py /로라/파일/폴더/경로

했는데, 잘 안되더라고요. 

혹시 tokenizer.model이라던지 미리 준비해둬야하는 것이 있나요??