현재 공개되고 있는 라마/알파카 모델들 살펴보면, 기본 모델은 .pt 또는 분할된 .bin으로 되어 있는 경우가 많음. 분할된.bin 병합하거나 .pt를 ggml 컨버터해서, 그 모델들 cpp나 gui에서 실행 파일(exe)과 컨버팅된 모델만으로도 쉽게 구동되면 좋겠음. 능력자들 여유 있을때, 뉴비도 따라할 수 있는 쉬운 모델 컨버터 가이드 또는 툴 같은거 만들어 줄 수 있으면 좋겠음. (라마.cpp 깃허브 보면 .py로된 ggml 컨버터 소스 코드 있는데, 살펴봐도 무슨 말인지 잘 모르겠음.)


그리고 공개되고 있는 알파카(라마) 로라(LoRA)들 보면 꽤 활발히 업로드되고 개인별로 커스텀되고 있는 것 같음. 알파카(라마)의 로라는 대부분 'adapter_model.bin' 형식으로 업로드(상대적으로 적은 용량)되고 있는데, AI 그림 SD WebUI 확장 기능에 있는 것처럼 로라(LoRA)와 기본 모델 병합할 수 있는 툴도 있으면 좋겠음. 그러면, AI 언어모델 로컬 사용에 대한 접근성도 지금보다는 훨씬 좋아질거 같음.


요며칠 알파카(라마) 관련 정보 쭉 살펴본 개인적 소감으로는, 향후 AI 언어모델 로컬쪽은 NAI처럼 원본 모델 유출 또는 공개가 있지 않는한, (1) 어느정도까지 양자화(최적화) 될지, (2) 커스텀 셋팅으로 학습/분화되는 개인별 로라(LoRA)의 확장성일 것 같음.