뉴스

WebUI 설치 및 환경

최근 수정 시각:

1. 설치
1.1. nVidia1.2. 그 외의 로컬 환경1.3. 클라우드 서비스
1.3.1. 코랩 노트북1.3.2. 런팟 노트북
2. 설치 후 작업
2.1. 최적화


본 문서는 stable-diffusion-webui(통칭 WebUI 혹은 A1111)를 실행하기 위한 설치법을 소개한다.

1. 설치 [편집]

WebUI를 실행하기 위해서는 AI를 처리하기 위한 환경이 필수적이다. AI 처리는 GPU, NPU 혹은 CPU로도 가능 하지만 현재로서는 GPU를 이용하는 것이 일반적이다. WebUI 역시 GPU 이용에 최적화되어 있으며, 특히 nVidia 그래픽카드를 사용하는 것을 권장한다.

1.1. nVidia [편집]

AI 그림 생성 시 VRAM이 매우 중요하게 작용하며, 충분하지 않을 시 메모리 부족으로 생성 해상도가 제한된다.[1]. 일반적인 최소사양은 6GB, 권장사양은 8-12GB이며, SDXL모델을 사용할 경우 12GB이상을 사용하는 것이 좋다. 따라서 일반적으로 로컬 실행 권장 환경은 NVIDIA RTX 2060 이상의 GPU가 권장된다.[2]

Windows10/11에서 nVidia 그래픽카드를 이용 중인 경우, gihub에서 제공하는 패키지를 이용해 설치하는 것이 가장 간단하다.
Installation on Windows 10/11 with NVidia-GPUs using release package

만일, 직접 설치하고 싶다면 이 글을 참고한다.
누구나 따라할 수 있는 로컬 자동좌 WebUI 클린 설치

1.2. 그 외의 로컬 환경 [편집]

제일 먼저 자신의 그래픽카드를 WebUI가 지원하는지 확인이 필요하다. AMD의 경우 최신 그래픽카드만 Windows를 지원하며, Intel의 경우 arc750/770만 지원한다. 또, nVidia와 설치법이 다르며 일부 기능적인 제한이 있을 수 있다.

WebUI github에 다른 환경에서의 설치법이 소개되어 있으니 이를 참고한다.
Installation and Running

1.3. 클라우드 서비스 [편집]

내 PC의 사양이 부족할 경우, 클라우드 서비스를 이용한다. 클라우드 서비스에는 구글 코랩, 런팟, 아마존 sagemaker studio lab, 구름 IDE 등이 있으며, 코랩을 이용하는 것이 일반적이다. 클라우드 서비스를 이용할 때는 서비스의 성능, 안정성, 가격 등을 고려하여 서비스를 선택하자.
무료 클라우드 서비스는 대부분 NVIDIA Tesla T4[3]를 사용하며, 유료의 경우 그 이상의 성능을 제공해기도 한다.

서비스 대부분이 jupyter notebook 기반 환경을 제공해주므로 이에 대한 지식이 있으면 좋다. 콘솔을 지원하는 서비스도 많은데, 이 경우 Linux 환경에서의 로컬 설치와 동일하게 설치할 수 있다. 단, 로컬IP로 접근이 불가능하므로 ngrok, gradio, cloudflare와 같은 터널링 서비스를 이용한다. WebUI는 터널링 서비스를 기본 혹은 확장을 통해 제공하므로 큰 어려움은 없다.

또한, 설치가 어렵거나 번거로운 사용자를 위해 서비스 별로 제작된 노트북이 있으므로 이를 이용해도 된다.

1.3.1. 코랩 노트북 [편집]


아래의 노트북들이 가장 유명하고 지원이 잘되는 노트북이다.

아래의 노트북은 국내 제작자가 제작한 노트북이다.
다만, 지원이 빠르지 않아 WebUI 업데이트 시 문제가 발생할 수 있다.

1.3.2. 런팟 노트북 [편집]

런팟은 fast-stable-diffusion을 서비스 내에서 기본 제공한다. 링크

2. 설치 후 작업 [편집]

설치가 완료되면 원하는 모델VAE를 다운받아 사용한다.
또, Extensions 탭에서 필요한 확장을 설치해 사용할 수 있다.

환경에 따라 최적화도 진행하도록 하자. 최적화 진행 시 진행 전보다 최대 2배 빠르게 생성 가능하다.

2.1. 최적화 [편집]

그래픽카드에 따라 성능 최적화를 할 수 있다. 공식 github의 Optimizations 문서를 참고하자.

nVidia의 경우, xformers나 sdp를 주로 사용하며, 적용하기 위해서는 webui-user.bat 를 열어 COMMANDLINE_ARGS가 적힌 줄에 다음과 같이 추가한다.
  • xformers
    COMMANDLINE_ARGS=--xformers --xformers-flash-attention
  • sdp
    COMMANDLINE_ARGS=--opt-sdp-attention # or --opt-sdp-no-mem-attention
[1] 메모리를 초과할 경우 CUDA out of memory 에러가 발생하며 그림 생성이 중단되거나 공유VRAM을 사용하면서 생성 속도가 엄청나게 떨어질 수 있다.[2] 참고[3] RTX 2060/3060보다 약간 느리지만 16GB VRAM을 제공