H2O.ai推出的H2O EvalGPT基于Elo评级方法评估大模型性能确保公正性和准确性
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
众包匿名随机对战的LLM基准平台《Chatbot Arena》
Hugging Face推出的开源大模型排行榜,展示最新最全的模型性能对比。
AGI-Eval:全面评测AI大模型性能的专业平台
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准
智源研究院发布的FlagEval(天秤)大模型评测平台,致力于提供全面、公正的模型评估服务。