속도가 빠르다니 뭐니 해서 파기 시작했는데







이거 당한 기분임


학습 수렴이 빠르다 라고 했지만


수렴된곳이 병신같은 결과물이라는건 믿을수 없었다. 


내가 잘못 설정한 탓인줄 알았지


내가 태그 정리를 개같이 한건가 싶었지


내가 학습 데이터셋을 전부 흰색 배경으로 만들어서 배경을 단순화 시키는줄 알았지







근데 adamW8bit으로 돌아와서 파라미터 적당히 남의lora꺼 그대로 넣고


1학습에 2시간 때려박으니까 볼만한 수준까지 올라옴



근 1주일간의 노력이 "그냥 adamW8bit 써라" 로 결론나는게 씁쓸하다






잠깐 지금 이거 올리려고 보니까 생각해보니 써볼 가치가 있는거 같은데? 방법 알거같은데? 싶음 뭐지 ㅅㅂ 다시 해봐야 하나