성능 비교



라마 vs 믹스트랄 vs Snowflake Arctic 작동 방식 비교 (이미지 출저 : 링크)


공홈 링크 : https://www.snowflake.com/blog/arctic-open-efficient-foundation-language-models-snowflake/

트위터 링크 : https://twitter.com/reach_vb/status/1783129119435210836

레딧 링크 : https://www.reddit.com/r/LocalLLaMA/comments/1cbzh65/snowflake_dropped_a_408b_dense_hybrid_moe/

허깅 모델 링크 : https://huggingface.co/Snowflake/snowflake-arctic-instruct

허깅 데모 링크 : https://huggingface.co/spaces/Snowflake/snowflake-arctic-st-demo


크기 : 10B의 밀집층과 128x3.66B MoE

활성 파라미터 : 17B (10B의 밀집층과 3.66B 크기의 전문가 2개)

라이센스 : Apache 2.0 

모델 파일 크기 : 약 964GB

최대 컨텍스트 : 4096

훈련된 토큰수 : 3.5T


Snowflake에서 소개하는 장점

- 훈련과 추론에 있어 비용효율적이다

- 아파치 라이센스다


로컬라마 레딧 반응

- 4K 컨텍스트

- 이걸 어떻게 돌리냐

- 유머로 만든 라마 2 8x70b도 이거보단 작다 (링크)

- raid0 구성해서 디스크 오프로딩해서 돌리면 괜찮아보인다

- 직접 쓰기에는 무리고 사례 연구용으로 좋아보인다