LLM 리더보드 및 벤치마크 용어 / leaderboard,benchmark


[AI 대결]

[한국]

https://elo.instruct.kr/

[월드]

https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard


[벤치마크 점수 평가]

[한국] 

https://arca.live/b/alpaca/102052014

https://www.aihub.or.kr/leaderboard/view.do?currMenu=500&topMenu=102

[월드]

https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard


[AI로 AI 평가]

https://tatsu-lab.github.io/alpaca_eval/

[MMMU - Massive Multi-discipline Multimodal Understanding] 전문가 AGI를 위한 벤치마크

https://mmmu-benchmark.github.io/#leaderboard

[gaia - 최상급 LLM 더욱 더 어려운 과제로 평가(lv1, lv2, lv3 단계로 나뉨. GPT-4 조차도 lv3 0% , AutoGPT4만 lv3 3.5% 달성]

https://huggingface.co/spaces/gaia-benchmark/leaderboard

[LLM Erotic Role Play - RP]

http://ayumi.m8geil.de/index.html

http://ayumi.m8geil.de/ayumi_bench_v3_results.html

https://rentry.co/ayumi_erp_rating

[MTEB(Massive Text Embedding Benchmark)]

https://huggingface.co/spaces/mteb/leaderboard

[코드 능력]

https://huggingface.co/spaces/bigcode/bigcode-models-leaderboard

[MMLU(Multi-task Language Understanding)]

https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu

[Hellaswag]

https://rowanzellers.com/hellaswag/

[Hallucination]

https://github.com/vectara/hallucination-leaderboard

[Nexusflow - function calling leaderboard]

https://huggingface.co/spaces/Nexusflow/Nexus_Function_Calling_Leaderboard


[평가 받기 - LLM 제출]

Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4

- 접속한 후 Submit here! 탭을 클릭하여 내 LLM을 제출하면 자동으로 평가해서 리더보드에 올려준다.

- 한국도 마찬가지로 한국 리더보드 접속한 후 Submit here! 탭을 클릭하여 내 LLM을 제출하면 자동으로 평가해주고 순위를 매김


[평가 프레임워크]

1.[HumanEval] https://github.com/openai/human-eval

2.[AGIEval] https://github.com/ruixiangcui/AGIEval

3.[TruthfulQA] https://github.com/sylinrl/TruthfulQA

4.[hellaswag] https://github.com/rowanz/hellaswag

5.[MMLU] https://github.com/hendrycks/test

6.[Gaoko] https://github.com/ExpressAI/AI-Gaokao#what-is-gaokao-benchmark

7.[CRASS] https://github.com/apergo-ai/CRASS-data-set

8.[MMMU] https://github.com/MMMU-Benchmark/MMMU

[평가 통합 프레임워크]

98.[opencompass] https://github.com/open-compass/opencompass

99.[lm-evaluation-harness] https://github.com/EleutherAI/lm-evaluation-harness

100.[한국어] https://github.com/Beomi/ko-lm-evaluation-harness


아래와 같은 값음 얻기 위함


[arc_challenge]
 - AI2 추론 챌린지(ARC)에 도전해보세요! ARC 데이터 세트에는 7,787개의 실제 초등학교 수준의 객관식 과학 문제가 포함되어 있으며, 고급 문제 풀이 연구를 장려하기 위해 수집되었습니다. 데이터 세트는 챌린지 세트와 이지 세트로 나뉘며, 전자는 검색 기반 알고리즘과 단어 동시 발생 알고리즘으로 오답을 맞힌 문제들로만 구성되어 있습니다. 이 순위표는 이지 세트에 대한 것입니다.
[arc_easy]
 - 위의 쉬운 버전
[boolq]
 - BoolQ는 15942개의 예시가 포함된 예/아니요 질문에 대한 답변 데이터 세트입니다. 이러한 질문은 자연적으로 발생하는 것으로, 프롬프트가 표시되지 않고 제약이 없는 설정에서 생성됩니다. 각 예는 (질문, 구절, 답변)의 세 가지로 구성되며, 페이지 제목은 선택적 추가 컨텍스트로 제공됩니다.
[hellaswag]
 - 인간에게는 쉽지만(~95%) SOTA 모델에게는 까다로운 상식 추론 테스트.
[openbookqa]
 - OpenBookQA는 한 주제에 대한 인간의 이해를 평가하기 위해 오픈북 시험을 모델로 한 새로운 종류의 문제-답변 데이터 세트입니다. 이 데이터셋은 5,957개의 객관식 초등학교 수준의 과학 문제(훈련 4,957개, 개발 500개, 테스트 500개)로 구성되어 있으며, 1,326개의 핵심 과학 사실로 구성된 작은 '책'에 대한 이해와 이러한 사실을 새로운 상황에 적용하는 능력을 측정합니다. 훈련을 위해 데이터 세트에는 각 질문과 해당 질문이 조사하도록 설계된 핵심 과학 사실에 대한 매핑이 포함되어 있습니다. OpenBookQA 질문에 답하려면 책에 포함되지 않은 광범위한 상식이 추가로 필요합니다. 이 질문은 설계상 검색 기반 알고리즘과 단어 동시 발생 알고리즘 모두에 의해 오답으로 처리됩니다. 또한 데이터 세트에는 5,167개의 크라우드 소싱 상식 팩트 모음과 각 질문이 원래의 핵심 팩트, 인간 정확도 점수, 명확도 점수, 익명화된 크라우드 워커 ID와 연관된 확장 버전의 훈련/개발/테스트 문제가 포함되어 있습니다.
[piqa]
 - PIQA는 상식적 추론을 위한 데이터 세트로, NLP에서 기존 모델의 물리적 지식을 조사하기 위해 만들어졌습니다.
[winogrande]
 - WinoGrande는 44,000개의 문제로 구성된 대규모 데이터셋으로, 원래의 WSC 설계에서 영감을 받았지만 데이터셋의 규모와 난이도를 모두 개선하기 위해 조정되었습니다. 데이터 세트 구축의 핵심 단계는 (1) 신중하게 설계된 크라우드소싱 절차, (2) 사람이 감지할 수 있는 단어 연관성을 기계가 감지할 수 있는 임베딩 연관성으로 일반화하는 새로운 AfLite 알고리즘을 사용한 체계적 편향성 감소로 구성됩니다.

 * acc(정확도), acc_norm(정규화된 정확도)



[용어]

1. AI2 Reasoning Challenge(25 shot) 

 - 초등학교 수준의 과학 문제 세트.

2. HellaSwag(10 shot)               

 - 인간에게는 쉽지만(~95%) SOTA 모델에게는 까다로운 상식 추론 테스트.

3. MMLU(5 shot)                     

 - 텍스트 모델의 멀티태스크 정확도를 측정하는 테스트입니다. 이 테스트는 초등 수학, 미국 역사, 컴퓨터 과학, 법률 등을 포함한 57개의 과제를 다룹니다.

4. TruthfulQA(0 shot)               

 - 온라인에서 흔히 볼 수 있는 허위 사실을 재현하는 모델의 성향을 측정하는 테스트입니다. 참고: 하네스의 TruthfulQA는 6개의 예제가 체계적으로 제공되므로 실제로는 최소 6개의 예제로 구성되어 있으며, 몇 개의 예제 수를 0으로 설정하여 실행해도 됩니다.

5. Winogrande(5 shot)               

 - 상식적인 추론을 위한 대규모의 적대적이고 어려운 Winograd 벤치마크입니다.

6. GSM8k(5 shot)                    

 - 다단계 수학적 추론 문제를 푸는 모델의 능력을 측정하기 위한 다양한 초등학교 수학 단어 문제.

7. DROP(3 shot)                     

 - 단락의 내용에 대한 이산 추론이 필요한 영어 독해력 벤치마크.

8. MATH                             

 - 12,500개의 도전적인 경시대회 수학 문제로 구성된 새로운 데이터 세트입니다. MATH의 각 문제에는 완전한 단계별 솔루션이 포함되어 있어 모델을 학습시켜 정답 도출 및 설명을 생성하는 데 사용할 수 있습니다.

9. MT-Bench                        

  - 여러 차례에 걸친 도전적인 질문 세트입니다. 우리는 GPT-4를 사용하여 모델 응답의 등급을 매깁니다.

10. AGIEval                         

 - 대학 입학시험, 로스쿨 입학시험, 수학 경시대회, 변호사 자격시험 등 인간 중심의 표준화된 시험의 맥락에서 기초 모델을 평가하기 위해 특별히 고안된 새로운 벤치마크

11. BBH COT                         

 - 23개의 까다로운 BIG-Bench 과제 모음에 초점을 맞춥니다. 이 과제들은 이전의 언어 모델 평가에서 평균적인 인간 평가자보다 우수한 성능을 보이지 못했던 과제들입니다. BBH(BIG-Bench) 과제에 생각의 사슬(CoT - Chain-of-Thought) 프롬프트를 적용한 성능 평가

12. Gaoko

 - 인간 수준의 지능을 향해 얼마나 잘 발전하고 있는지 추적하는 것을 목표로 합니다. 실제 시나리오에서 실질적으로 유용한 다양한 작업과 도메인에 대한 포괄적인 평가를 제공할 뿐만 아니라 시간이 지남에 따라 AI 시스템을 인간과 직접 비교할 수 있도록 풍부한 인간 성능도 제공합니다. (듣기, 빈칸 채우기, 빈칸 추론, 읽기 다중 선택, 읽기 올바른 문장 선택,  쓰기 문법, 쓰기 에세이) 능력 고사.

13. HumanEval

 - 언어 이해력, 알고리즘, 간단한 수학을 평가하는 164개의 독창적인 프로그래밍 문제로 구성되어 있으며, 일부는 간단한 소프트웨어 면접 질문

14. CRASS

 - 데이터는 소위 PCT(전제-반대 사실 튜플)로 구성됩니다. 기본 전제와 반대되는 조건을 사용하여 가상의 상황을 대조합니다. 고정 목표 모드에서 모델의 임무는 어떤 답이 정답인지 결정하는 것입니다. 개방형 채점 모드에서 모델은 인간 주석가가 정답 또는 오답으로 판단하는 PCT에 답을 제공해야 합니다.

15. RACE

 - Race는 28,000개 이상의 지문과 약 100,000개의 문항으로 구성된 대규모 독해력 데이터 세트입니다. 이 데이터 세트는 중학생과 고등학생을 대상으로 하는 중국 내 영어 시험에서 수집한 것입니다. 이 데이터 세트는 기계 독해력을 위한 훈련 및 테스트 세트로 사용될 수 있습니다.

16. GAIA (lv3 100% -> 달성 시 인간이 하는 모든 업무는 사실상 대체가 가능할 것)

  - GAIA는 차세대 LLM(추가 도구, 효율적인 프롬프트, 검색 액세스 등으로 인해 기능이 강화된 LLM)을 평가하는 것을 목표로 하는 벤치마크입니다. Data GAIA는 명확한 답이 있는 450개 이상의 사소한 질문으로 구성되어 있으며, 이를 해결하기 위해 다양한 수준의 툴링과 자율성이 필요합니다. 따라서 3단계로 나뉘며, 

레벨 1은 매우 우수한 LLM이 돌파할 수 있는 수준이고 (GPT-4 lv1 Score 30%, AutoGPT4 lv1 Score 13%)

레벨 3은 모델 역량이 크게 도약했음을 나타냅니다.(GPT-4 lv3 Score 0%, AutoGPT4 lv3 Score 3.85%)

각 레벨은 검증을 위한 완전 공개 개발 세트와 비공개 답변 및 메타데이터가 포함된 테스트 세트로 나뉩니다.



[KO 리더보드 용어]

1. 추론능력(ARC)                    

 - 초등학교 수준의 과학질문지로만 구성, AI 질문에 대한 답변의 적정성 측정.

2. 상식능력(HellaSwag)             

  - 인간에게는 사소한 질문이지만, AI에게는 답변하기 어려운 질문지 구성, AI 짧은 글 및 지시사항에 알맞은 문장을 생성하는지 여부 측정.

3. 언어이해력(MMLU)                 

 -  57개의 다양한 분야(초등 수학, 역사, 컴퓨터 과학, 법학 등)에 대한 질문지로 구성, AI 방대한 분야의 질문에 대한 답변이 얼마나 정확한지를 측정

4. 환각방지능력(TruthfulQA)          

 - 인간이 잘못 인지 혹은 거짓으로 대답할 수 있는 질문지로 구성, AI 답변이 진실한지 측정.

5. 한국어 상식생성능력(CommonGen-ko)   

 - 역사 왜곡, 환각 오류, 형태소 부착 오류, 불규칙 활용 오류, 혐오 표현 등에 대한 광범위한 유형을 포함한 질문지로 구성, AI 주어진 조건의 질문에 답변이 한국어 사용자라면 보유하고 있을 일반 상식에 부합하는지 여부 측정


[Erotic Role Play 평가 용어]

1. ALC-IQ3    

 - ALC-IQ3는 ALC-IQ의 세 번째 버전입니다. 모델이 캐릭터 카드를 얼마나 잘 이해하는지를 측정합니다. 높을수록 좋습니다. 최고 점수는 100점입니다.

2. ERP3 Score 

 - 응답에 포함된 단어 대비 음란한 단어의 평균 비율입니다. 높을수록 좋습니다.

3. Var Score  

 - 음란 단어의 다양성 점수입니다. 모든 ERP 응답에서 얼마나 많은 다른 음란 단어가 발생하는지 계산합니다.


[LLM 환각 평가]

https://huggingface.co/vectara/hallucination_evaluation_model

- 이 모델은 0에서 1 사이의 확률을 출력하며, 0은 환각이고 1은 사실과 일치합니다. 예측 임계값을 0.5로 설정하여 문서가 출처와 일치하는지 여부를 예측할 수 있습니다.

- 성능


[기타]

https://github.com/songys/AwesomeKorean_Data

https://littlefoxdiary.tistory.com/42


https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models

https://github.com/tjunlp-lab/Awesome-LLMs-Evaluation-Papers

https://github.com/Hannibal046/Awesome-LLM

https://github.com/Mooler0410/LLMsPracticalGuide


https://github.com/OpenAccess-AI-Collective/axolotl

https://github.com/huggingface/alignment-handbook


https://llava-vl.github.io/

https://sharegpt4v.github.io/

https://huggingface.co/NousResearch/Nous-Hermes-2-Vision-Alpha


https://github.com/ggerganov/llama.cpp

https://github.com/vllm-project/vllm

https://github.com/triton-inference-server/server

https://github.com/bentoml/OpenLLM

https://github.com/mlc-ai/web-llm


https://github.com/cg123/mergekit

https://github.com/Gryphe/MergeMonster


https://huggingface.co/facebook/seamless-m4t-v2-large

https://huggingface.co/openai/whisper-large-v3

https://huggingface.co/coqui/XTTS-v2


https://huggingface.co/Nexusflow/NexusRaven-V2-13B


https://huggingface.co/ise-uiuc/Magicoder-S-DS-6.7B

https://huggingface.co/Phind/Phind-CodeLlama-34B-v2


https://huggingface.co/blog

https://huggingface.co/docs

https://discuss.huggingface.co/

https://huggingface.co/learn

https://github.com/huggingface

https://huggingface.co/papers


https://huggingface.co

https://www.aihub.or.kr/

https://discuss.pytorch.kr/

https://github.com/llm-jp/awesome-japanese-llm

https://docs.google.com/spreadsheets/d/1O5KVQW1Hx5ZAkcg8AIRjbQLQzx2wVaLl0SqUu-ir9Fs/edit#gid=1158069878

https://llm-jp.nii.ac.jp/release/

https://modelscope.cn/