지난번 포스팅에 이어서 함:

https://arca.live/b/hypernetworks/61462090?p=1

(첫번째 드림부스 결과 기록 (19금 이미지 있음) - WD 1.3 full. ckpt기반)


구동환경: 런포드, RTX 3090 


사용모델: nai animefull-final-pruned.ckpt

사용 드림부스: https://github.com/JoePenna/Dreambooth-Stable-Diffusion

학습자료: 총 110장 풀컬러 일러스트레이션 512 사이즈 크롭 자료

(얼굴 50% 얼굴 & 상체 35% & 얼굴없이 몸만 있는 짤 15%)

배치사이즈: 1

학습율: 지정값

스탭: 3000

로스율: 0.19~0.31 사이 (랜덤)


원본 작가: 우루시하라 사토시 




학습결과 1: (txt2img로 생성)

드림부스 모델파일을 Webui에 로딩하고

프롬프트 맨 앞에 US21 Style을 맨 앞에 적어주고 나머지 프롬프트 적용




학습결과 2: (img2img로 생성):

(좌) 원본 (우) US21 Style, masterpiece, bestquality 등의 태그를 적용했습니다.






어제 작업한 모델은 wd 1.3기반 이었는데 좀 별로였습니다.


이번건은 어제 대비해서

44장에서 110장으로 학습 자료량을 늘리고 

스탭수를 2000회에서 3000회로 증가시키고

학습모델은 nai anime full pruned 로 교체했습니다.


학습율과 배치사이즈는 기본값 그대로 사용했습니다.

(코랩 버전은 학습률 입력하는 란이 있는거 같은데

런포드 버전은 스스로 컨피그 파일찾아서 수정해야하는 방식 같아요)


어제 모델은 img2img에서 굉장이 기괴한 결과가 많이 나왔는데

일단은 img2img가 굉장이 많이 개선이 된거 같습니다.

다만 얼굴이 멀어질수록 디테일이 떨어지는건 어쩔수가 없는것 같습니다.


이번 모델은 디노이즈량과 cfg그리고 스탭을 조금만 조절해도

원본 이미지를 크게 안 훼손하는 편에서 그럭저럭  결과값이 나오는듯 합니다.

매일매일 새로운 정보가 발견되니 따라가기도 벅차지만 그래도 재미있는듯


다음 작업들은 기존에 작업해놨던 하이퍼네트워크용 학습자료들을

드림부스 모델로 변환시켜볼 예정입니다.


기존 하이퍼네트워크 학습모델 공유 001, 002

https://arca.live/b/aiart/60953902

https://arca.live/b/hypernetworks/61085886


드림부스 메가 다운로드:

https://mega.nz/file/JlEFQZxL#WNatHp8_rZ4VtBLECTFNcuPRxiKK9s5dbzGy3XYDTPM

적용법은 모델을 로딩하시고나서 맨앞 프롬프트에 US21 Style

이렇게 하시면 됨




봐주셔서 감사!