Killed by LLM
(r0bk.github.io)- Organiza benchmarks que se tornaram inúteis com o avanço da IA (já não conseguem medir os modelos mais recentes)
- Ainda útil como benchmark, mas não contribui de forma significativa para a pergunta "a IA pode fazer X?"
- 2024: ARC-AGI, MATH, BIG-Bench-Hard, HumanEval, IFEval
- 2023: GSM8K, Turing Test, ARC(AI2), HellaSwag, MMLU, WinoGrande
- 2022: BIG-Bench
- 2019: SuperGLUE, WSC, GLUE, TriviaQA, SQaAD v2.0, SQuAD
- 2018: SWAG
3 comentários
Até o SQuAD também está sumindo?
Isso me lembra do Killed by Google.
Ainda há pontos a favor e contra sobre alguns benchmarks específicos, mas é interessante. https://news.ycombinator.com/item?id=42606231