https://arca.live/b/aiart/64754600
모델명설명마그넷 (pruned, emaonly, fp32)
SD-v1.5
모든 것의 시작
그 자체보다 모델 병합,학습에 쓰임 
magnet:?xt=urn:btih:2daef5b5f63a16a9af9169a529b1a773fc452637
NovelAI근본, 독립적으로 쓰임
근본인만큼 병합, 학습에도 쓰임
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc
WD-v1.3NAI보다 조금 달림
그 자체보다 모델 병합에 쓰임 
magnet:?xt=urn:btih:7ab947dd96ecc5f7698a2ff0962077e3621c3bb1
Anything-v3.0
NAI인데 배경 알아서 잘 만들어줌
독립적으로 자주 씀
magnet:?xt=urn:btih:d9db662ab5ace77004b3348c23c9381380c27156
f222
드림부스로 실사 학습모델
그 자체보다 모델 병합에 쓰임
magnet:?xt=urn:btih:GR3IGMJDPJPW3B4WRT5B7SAN7CEBHWSZ
cafe-instagram
인스타 실사 학습 모델
그 자체보다 모델 병합에 쓰임  
magnet:?xt=urn:btih:eb085b3e22310a338e6ea00172cb887c10c54cbc




병합된 모델 제외하고 오리지널 혹은 학습시킨 모델 중에서 특정 그림체에 국한되지 않고 고루 쓰이는 모델

언급되는 빈도가 높은 모델은 이 정도가 아닐까 싶음


파일 이름에 자주 쓰이는 표현

pruned: 낮은 weight 가지치기 해서 용량을 줄인 모델.

emaonly: 추가 학습에 필요한 ema weight를 제거해 용량을 줄인 모델. 추가 학습이 불가능함

-용량이 적으면 낮은 브램을 차지하고 비교적 빠르게 뽑아냄

fp32/fp16: 각 파라메터의 크기 32비트/16비트, 32비트가 당연히 디테일이 좋음

일반적으로 pruned, emaonly, fp32가 짤 뽑기 한정해서는 가장 합리적인 타협점이 아닌가 생각함


파일 이름에 뭐가 안 써있어요~

6기가 이상->  pruned, fullema, fp32 

4~6기가-> pruned, emaonly, fp32

3~4기가->  pruned, fullema, fp16 

2~3기가-> pruned, emaonly, fp16


bin/ckpt/safetensor: 파일 확장자

-bin: vae tokenizer 등 분리되어있는 모델. 웹ui에서 쓰려면 변환이 필요

-ckpt: 웹ui에서 받아들이는 모델. 하지만 실행 가능한 코드가 포함되어 보안상 취약점이 있다

-safetensor:  웹ui에서 받아들이는 모델. ckpt의 실행 가능한 코드를 제거한 모델.


개인적으로 잘 모르겠으면 일단 Anything-V3.0-pruned-fp32.ckpt 원툴 추천

This site is protected by reCAPTCHA and
the Google Privacy Policy and Terms of Service apply.