![](http://ac.namu.la/20240524sac/697f9749d8fdbdd5fe3a3a7a05ced6640c1f219909a724c9e1d283c8c7db938d.png?expires=1719795600&key=XfyblMpSJ70-m50-S2WilQ)
Replete-AI/Llama-3-11.5B-V2
=> instruct가 아님
=> 8192가 최대
Virt-io/Llama-3-Dolphin-Instruct-11.5B
=> 8192가 최대
mattshumer/Llama-3-8B-16K
=> instruct가 아님
dreamgen/opus-v1.2-llama-3-8b
=> RP 튜닝됨
=> 근데 8192가 최대임
NurtureAI/Meta-Llama-3-8B-Instruct-64k
=> 조건은 맞는데 사용 후기는 ㅁㄹ
openlynn/Llama-3-Soliloquy-8B
=> 챈에 올라온 RP 튜닝된 24K 라마
70b도 다른 사람이 튜닝 하는거 기다리던가
아니면 로프 스케일링? 그런거 써야할듯
수정 :
찾아보니까 다국어 지원 및 더 긴 컨텍스트의 70b가 나중에 출시될거라고함
https://www.reddit.com/r/LocalLLaMA/comments/1c7z5ub/comment/l0bc0u0
수정2: 그게 70b라고 한적은 없음