모델명 | 설명 | 마그넷 (pruned, emaonly, fp32) |
SD-v1.5 | 모든 것의 시작 그 자체보다 모델 병합,학습에 쓰임 | magnet:?xt=urn:btih:2daef5b5f63a16a9af9169a529b1a773fc452637 |
NovelAI | 근본, 독립적으로 쓰임 근본인만큼 병합, 학습에도 쓰임 | magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc |
WD-v1.3 | NAI보다 조금 달림 그 자체보다 모델 병합에 쓰임 | magnet:?xt=urn:btih:7ab947dd96ecc5f7698a2ff0962077e3621c3bb1 |
Anything-v3.0 | NAI인데 배경 알아서 잘 만들어줌 독립적으로 자주 씀 | magnet:?xt=urn:btih:d9db662ab5ace77004b3348c23c9381380c27156 |
f222 | 드림부스로 실사 학습모델 그 자체보다 모델 병합에 쓰임 | magnet:?xt=urn:btih:GR3IGMJDPJPW3B4WRT5B7SAN7CEBHWSZ |
cafe-instagram | 인스타 실사 학습 모델 그 자체보다 모델 병합에 쓰임 | magnet:?xt=urn:btih:eb085b3e22310a338e6ea00172cb887c10c54cbc |
병합된 모델 제외하고 오리지널 혹은 학습시킨 모델 중에서 특정 그림체에 국한되지 않고 고루 쓰이는 모델
언급되는 빈도가 높은 모델은 이 정도가 아닐까 싶음
파일 이름에 자주 쓰이는 표현
pruned: 낮은 weight 가지치기 해서 용량을 줄인 모델.
emaonly: 추가 학습에 필요한 ema weight를 제거해 용량을 줄인 모델. 추가 학습이 불가능함
-용량이 적으면 낮은 브램을 차지하고 비교적 빠르게 뽑아냄
fp32/fp16: 각 파라메터의 크기 32비트/16비트, 32비트가 당연히 디테일이 좋음
일반적으로 pruned, emaonly, fp32가 짤 뽑기 한정해서는 가장 합리적인 타협점이 아닌가 생각함
파일 이름에 뭐가 안 써있어요~
6기가 이상-> pruned, fullema, fp32
4~6기가-> pruned, emaonly, fp32
3~4기가-> pruned, fullema, fp16
2~3기가-> pruned, emaonly, fp16
bin/ckpt/safetensor: 파일 확장자
-bin: vae tokenizer 등 분리되어있는 모델. 웹ui에서 쓰려면 변환이 필요
-ckpt: 웹ui에서 받아들이는 모델. 하지만 실행 가능한 코드가 포함되어 보안상 취약점이 있다
-safetensor: 웹ui에서 받아들이는 모델. ckpt의 실행 가능한 코드를 제거한 모델.
개인적으로 잘 모르겠으면 일단 Anything-V3.0-pruned-fp32.ckpt 원툴 추천