H2O.ai推出的H2O EvalGPT基于Elo评级方法评估大模型性能确保公正性和准确性
斯坦福大学推出的大模型评测体系《HELM》旨在全面评估AI模型的性能和可靠性
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准
智源研究院发布的FlagEval(天秤)大模型评测平台,致力于提供全面、公正的模型评估服务。
PubMedQA是生物医学研究领域的问答数据集和模型得分排行榜,旨在评估和提升AI模型在生物医学文献理解方面的能力。
Hugging Face推出的开源大模型排行榜,展示最新最全的模型性能对比。
一个全面的中文基础模型评估套件,旨在提供多维度、系统化的模型性能测评,确保技术应用的准确性和可靠性