大规模多任务语言理解基准
访问该站点
MMLU 全称 Massive Multitask Language Understanding,是一种针对大模型的语言理解能力的测评,是目前最著名的大模型语义理解测评之一,由UC Berkeley大学的研究人员在2020年9月推出。该测试涵盖57项任务,包括初等数学、美国历史、计算机科学、法律等。任务涵盖的知识很广泛,语言是英文,用以评测大模型基本的知识覆盖范围和理解能力。
H2O.ai推出的基于Elo评级方法...
AI模型评估平台
斯坦福大学推出的大模型评测体系
上海人工智能实验室推出的大模型开放评...
全方位的多模态大模型能力评测体系
AI大模型服务性能评测平台
由复旦大学NLP实验室推出的大模型评...
字节推出的视觉生成模型对战平台
Hugging Face推出的开源大...
一个全面的中文基础模型评估套件
智源研究院推出的FlagEval(天...