https://github.com/oobabooga/text-generation-webui/issues/237

바보도 인지하고 readme에 해당 문구 추가했음

그러니 llama 설치하는 챈럼들도 wsl 통하는게 이로울거 같음