기본적으로 번역 데이터셋은 aihub데이터셋을 사용했고 

아직 CPO는 적용하지 않았고 향후 적용할 예정.

훈련은 ALMA의 2단계만 적용했고 1단계는 yanolja/EEVE-Korean-10.8B-v1.0로 충분하다고 가정했고 qlora사용했음

훈련은 1epoch에서 수렴해서 그이상 훈련하지 않았고 거의 모든 사항을 ALMA를 따랐기 떄문에 훈련 데이터셋은 10만개 정도 되고

영어 한국어 양방향으로 지원됨

https://huggingface.co/qwopqwop/EEVE-ALMA

evaluate는 따로 안했기 때문에 성능은 보장못함

ALMA:https://github.com/fe1ixxu/ALMA
훈련 코드: https://github.com/qwopqwop200/ALMA-en2ko