구글 i/o에서 PaliGemma라는 옴니(멀티모달) 모델을 출시하였고, 다음 gemma2에 대한 떡밥을 풀때 27B임을 기정사실화 시켰습니다.

이 두배정도 되는 모델(미스트랄 8x7B 저격인듯)의 성능정도라고 하고,

원래 좋았던 토크나이저를 기반으로 좋은 다국어 성능을 보여준다니 어서 라마3 400B와 같이 존-버 합시다.