4090 1대 있는 우분투 서버에서 Langchain LlamaCpp로 챗봇 테스트 중입니다만, 

Llama-cpp-python에서 제공하는 Llama에서 로드한 것은 비동기화가 원활하게 되는데,

Langchain LlamaCpp를 써서 동시에 챗봇에 질문하면 비동기화가 안되고 "중지됨 (코어 덤프됨)"이라고 하는 오류가 뜨는데 

Langchain LlamaCpp로 비동기화 하신 분 계실까요?


어렵네요..ㅜ