1024 1024 를 넘는 해상도면 당연히 그럴 확률 대-폭 증가하고
모델을 nai 유출본을 쓰면 애는 512 512 해상도를 기준으로 학습시킨거라 최대 1024까지임 이이상 넘어가면 의미가 없고 잘 나오지도 않음
이이상 쓸거면 1024 1024 학습된 모델을 쓰거나 학습된 하이퍼네트워크를 갖다 박는게 답 (1:1)
그래서 보통 잘나오는 해상도는 512 512 512 768 896 960 1024 768 768 1024 1024 960 1024 1024
그래서 extra로 4배 업스켈을 돌리잖아 사람들이 고해상도로 뽑아봐야 그림 뭉개지고 개판난다고 하지말라는 이유가 있음
해상도가 높아질수록 스케치 범위가 커지니까 더 화려하고 좋게 나오는데 그와 비례해서 그림이 뭉개진다거나 에러가 날 확률도 덩달아서 높아짐
나는 죽어도 업스켈 못쓰겟다 고해상도로 직으로 뽑아야겟다 하면 직접 드림부스나 하이퍼네트워크로 1024 1024 이미지로 학습을 돌리던가 아니면 이것보다 더 높은 해상도들의 짤을 구해서 학습을 돌리면 됨
근데 1024 1024도 3090으로 학습돌리기엔 간당간당한 수준
쿠다 코어 와 바로 연결이 가능한 램이 필요한 거기 때문에 그건 불가능...
브램 의 존재이유가 쿠다코어 연산할때 텍스쳐같은 이미지 파일 저장창고용도로 쓰이거든
첨에 일반 램에 적재된 걸 글픽램으로 옮기고 글픽에서 연산처리 끝난건 다시 글픽램 거쳐서 일반 램으로 감 이걸 일반램으로 갖다쓰면... 병목현상 오져서 다같이 처리속도 저하크리 먹는거심..
그 --medvram --lowvram 옵션이 이런 방식이잖아 파인튜닝된 최소 추론 가능한 모델 데이터만 vram에 올리고 나머지는 일반램에 적재해놓는 방식 그러다 연산 들어가면 일반램에서 잠시 끌어오다 다시 내뱉고 당연 일반램과 스위칭을 하기때문에 쿠다코어 성능에 제한이 들어감
그래서 이옵션쓰면 램은 낮아지지만 성능도 덩달아서 깎아먹는것...
저 옵션이 그래픽램 부족한 애들을 대상으로 쓰라고 만들어논 옵션인데... 성능이 부족한건 시간이라서 그냥 좀 긴시간 기다리면 되지만 램이 부족한건 오버플로나면서 그냥 작업이 터져버리거든 즉 돌릴수가 없다는것
시작할수는 있지만 종나 오래걸림 vs 시작도 못함 이거라서 딥러닝 ai에서 램이 무조건 많아야 한다는 이유가 이것이지
내꺼 3060 노트북버전이라 6기가인데 --medvram 안쓰면 기본점유 5기가에 512 768 기본해상도 1장으로 돌리면 바로 터져버린다 ㅋㅋㅋㅋㅋ 6기가 풀차지하면서 오버플로나면서 서버가 터져버림 다시껏다 키지않는이상 절대 안돌아가고
메드 브램쓰면 점유율 2기가 줄어서 3.5기가정도 차지하는데 1024 1024 렌더까지는 어떻게 버티드라 대신 해상도 늘어나면 늘어날수록 글픽램 요구치도 좀 많아지기때문에 버티긴 하지만 시간이 오래걸려서 그렇지.. 램딸리면 슬퍼요