llama.cpp 을 아래쪽 스샷에 있는 dll을 통해서 사용하는데 직접 컴파일한 걸로 해보니까 cuda 넣고 컴파일 한 애들은 아예 에러 떠버리네

llama_orig.dll이 pip 설치할때 딸려오는 dll 인데 용량차이가 왜 생기는 건지 저것도 신기하네..

윈도우에서 쓰려면 llama_cpp.py 파일을 되게끔 수정하거나 wsl로 돌리는게 맞는 듯