gpt4 o 정도면 1~2년만에 충분할거임
지금도 ollama 같은걸로 라마3로 일반 채팅하고 라마3기반 이미지 분석해주는 llava3로 이미지 해석해주고
whisper 라이브러리로 stt 구현하면 성능은 낮아도 gtp4 o 처럼 동작함
오픈 ai가 대단한게 선두주자로서 더 나은 성능과 이걸 벌써 하나의 모델로 합쳤다는 방향성을 가지고 있다는건데
다른 회사들도 따라가는건 금방 할거임
llama가 처음 나왔을 때 로컬이 gpt 3.5 수준이라도 달성했으면 소원이 없겠다고 생각했었는데
지금 llama를 비롯한 오픈소스 탑티어 급 모델은 3.5는 이미 제껴버리고 클로드 소네트랑 대결하며 gpt4의 아성을 넘보는 중입니다.
앞으로 공개될 llama3의 400b 모델은 아직 훈련 단계임에도 벤치상으로 gpt4, 클로드 오푸스와 견줄만한 성능이구요
물론 한글은 이야기가 조금 다르긴 한데 이쪽도 추후 예정된 라마3 다국어 모델에서 어느 정도 갈증이 해소될 전망이라
생각보단 그리 오래 걸리지 않을 거라고 봅니다.
당장 라마2가 공개되었던 게 아직 1년도 채 안됐습니다.
로컬까지는 모르겠지만 두 달이면 오픈소스 진영에서 구현 수준은 따라 잡을 거라 하네요.
"I firmly believe in ~2 months, there will be enough knowledge in the open-source for folks to start pre-training their own gpt4o-like models. We're working hard to make this happen." (META AI 연구원)
https://twitter.com/ArmenAgha/status/1790173576970256410