-번역버전-



네, 별로 믿음이 가지 않습니다.


"올리브"에 최적화되었다는 것은 Torch에서 ONNX로 모델을 컴파일한 다음 텐서 코어가 내장된 새로운 ONNX 백엔드를 사용한다는 의미입니다. 이는 전체 SD 에코시스템이 Torch/CUDA/ROCm 등의 사용을 중단하고 ONNX로 전환해야 한다는 것을 의미하는데, 그럴 가능성은 거의 없습니다.


그리고 만약 그 길로 간다면, 누군가가 ONNX가 차선책이고 가까운 미래에 Torch를 완전히 능가할 것이라고 말하지 않는 한, 저는 ONNX 대신 TensorRT를 직접 지원하는 편이 훨씬 낫다고 생각합니다.


Microsoft는 서비스형 머신 러닝을 위해 Azure에서 내부적으로 ONNX를 사용하므로 nVidida가 훨씬 더 흥미로운 선택이 될 수 있으며, nVidida가 왜 그렇게 하지 않을지 이해할 수 있습니다(왜 안 할까요?).





결국은 2배속 혜택을 보려면 현재 SD 생태에서 토치, 쿠다에서 싹다 onnx 기반으로 갈아엎어야 해서 어렵다는듯.