Replete-AI/Llama-3-11.5B-V2

=> instruct가 아님

=> 8192가 최대


Virt-io/Llama-3-Dolphin-Instruct-11.5B

=> 8192가 최대


mattshumer/Llama-3-8B-16K

=> instruct가 아님


dreamgen/opus-v1.2-llama-3-8b

=> RP 튜닝됨

=> 근데 8192가 최대임


NurtureAI/Meta-Llama-3-8B-Instruct-64k

=> 조건은 맞는데 사용 후기는 ㅁㄹ


openlynn/Llama-3-Soliloquy-8B

=> 챈에 올라온 RP 튜닝된 24K 라마



70b도 다른 사람이 튜닝 하는거 기다리던가

아니면 로프 스케일링? 그런거 써야할듯


수정 :

찾아보니까 다국어 지원 및 더 긴 컨텍스트의 70b가 나중에 출시될거라고함

https://www.reddit.com/r/LocalLLaMA/comments/1c7z5ub/comment/l0bc0u0


수정2: 그게 70b라고 한적은 없음