디퓨전 모델 학습에는 많은 자원이 필요한데 그 예로 StabilityAI 에선 4,000개의 A100을 사용했었음

파인튜닝에 필요한 자원도 다소 많이 필요해 3090/4090 급의 카드가 필요하고 현존하는 학습 프레임워크(도구)도 설정과 스크립트를 완전히 공개하지 않아 일반 사용자가 자신만의 모델을 만드는데에 큰 어려움이 있었음


위 같은 문제를 완화하고자 버클리 공대의 Colossal-AI 프로젝트에 (스테이블)디퓨전 모델 학습 지원을 시작함


1. 학습과 파인튜닝에 필요한 학습 설정, 스크립트의 전면 오픈소스화


2. 학습과 파인튜닝에 요하는 자원의 절감 (메모리 최적화 등)

약 7배 감소시켰고 덕분에 파인튜닝 시 RTX2070 또는 3050 8GB 등 일반 소비자용 중저가 그래픽카드 단 하나로 파인튜닝 할 수 있게 됐다고 함

또한 작업 속도가 중요하지 않다면(느려도 상관없다면) Colossal-AI NVMe(HDD, SATA SSD, NVMe SSD) 를 사용해 파인튜닝 할 수 있음

물론 모델 학습에는 여전히 A100 등 연구용(컴퓨팅 전용) GPU 가 필요하지만 이전보다 필요한 장치 수와 속도가 크게 줄어들었다고 함


관련 레포지토리: https://github.com/hpcaitech/ColossalAI

예시 레포지토리: https://github.com/hpcaitech/ColossalAI-Examples

관련 아티클: https://medium.com/@yangyou_berkeley/diffusion-pretraining-and-hardware-fine-tuning-can-be-almost-7x-cheaper-85e970fe207b