众包匿名随机对战的LLM基准平台《Chatbot Arena》
AGI-Eval:全面评测AI大模型性能的专业平台
智源研究院发布的FlagEval(天秤)大模型评测平台,致力于提供全面、公正的模型评估服务。
上海人工智能实验室推出的大模型开放评测体系《OpenCompass》旨在为大模型提供全面、公正、透明的评估标准和工具。
斯坦福大学推出的大模型评测体系《HELM》旨在全面评估AI模型的性能和可靠性
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准
一个全面评估大模型中文能力的基准应用,涵盖多项专业领域测试,详见《CMMLU》。