생각보다 다루는게 간단하진 않음. AI가 그려준다고 하니 뭔가 '수건 란디 새짤 그려줘', '티아 페도짤 그려줘' 이러면 AI가 알아서 척척 결과물을 내어주는 걸로 생각할 수 있지만 실상은 온갖 태그를 조합해 내가 원하는거 비슷한게 나올 때까지 가챠를 뽑는거나 다를 바 없음.


AI가 그림을 직접 그린다기 보다는 학습한 데이터에서 요청한 태그에 맞는 그림들을 뽑은 후 셋팅에 따라 이리저리 조합하고 합성하는 일종의 합성툴에 더 가깝다는 느낌임. 그래서 학습한 데이터들이 모여 있는 모델을 뭘 쓰냐에 따라 결과와 결과물의 성향이 큰 영향을 받는 듯.


결과물을 뽑는 것만으로는 학습이 안됨. 태그 여러개를 넣고 조합해서 나온 결과물들 중 사용자가 뭘 뽑았냐는 AI에게 있어서 전혀 고려의 대상이 아님. 그래서 천번을 뽑던 만번을 뽑던 결과물을 만들어내는 방식은 그대로임. 대신 결과물을 도출해 낼 리조스(모델)은 학습시킬 수 있다고 함. 예를 들어 랑모 그림을 쭉 학습시켜 특정 태그로 랑모 스타일 그림을 뽑아내게 한다던가 특정 캐릭터만 쭉 학습시켜 특정 태그로 특정 캐릭터와 비슷한 결과물을 내도록 하는 건 가능한 듯.


그냥 가지고 노는 재미는 있음. 이것저것 태그를 넣어서 뭐가 나오나 가챠를 뽑는 재미랄까..


집 컴 사양이 전혀 좋지 않아서 로컬에서 돌리는 건 무리고 구글 코랩을 써서 돌리는데 최근 코랩 써서 이짓하는 사람들이 많은지 새로 계정파서 설치해도 금방 제한에 걸려서 막힘.

아래는 img2img로 아멜다하고 소피아를 기본으로 두고 태그 몇개 돌려서 뽑은 몇몇 이미지들.. 원본에서 크게 벗어나지 않도록 셋팅해서 그림체 등만 조금 바뀌게 해봄. 모델은 그 유명한 NAI는 안쓰고 딴거 써봄.


원본


결과물들


원본


결과물