一个全面评估大模型中文能力的基准应用,涵盖多项专业领域测试,详见《CMMLU》。
例:2023 年评测显示,GPT-4 在 CMMLU 的法律类目准确率为 78%,而 ChatGLM-6B 为 62%。
某在线教育平台使用 CMMLU 筛选出在数学题解析准确率最高的开源模型(如 Aquila2-34B)。
上海人工智能实验室推出的大模型开放评测体系《OpenCompass》旨在为大模型提供全面、公正、透明的评估标准和工具。
Hugging Face推出的开源大模型排行榜,展示最新最全的模型性能对比。
PubMedQA是生物医学研究领域的问答数据集和模型得分排行榜,旨在评估和提升AI模型在生物医学文献理解方面的能力。
众包匿名随机对战的LLM基准平台《Chatbot Arena》
AGI-Eval:全面评测AI大模型性能的专业平台
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准