출처 https://www.reddit.com/r/StableDiffusion/comments/10cgxrx/wellresearched_comparison_of_training_techniques/


클릭하면 커짐


쉽게말하면 학습된 데이터를 어느 타이밍에 끼워넣느냐의 차이가 있음

서로 상위호환, 하위호환 같은 개념이 절대 아니며 서로 상이한 장단점을 가짐.

잘 만든 embedding은 어설프게 뽑은 lora보다 훨씬 퀼리티가 높은 케이스도 존재함