上海人工智能实验室推出的大模型开放评测体系《OpenCompass》旨在为大模型提供全面、公正、透明的评估标准和工具。
opencompass run --models baichuan2-13b chatglm6b --datasets finance_qa
opencompass eval --config math_benchmark.yaml
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
PubMedQA是生物医学研究领域的问答数据集和模型得分排行榜,旨在评估和提升AI模型在生物医学文献理解方面的能力。
AGI-Eval:全面评测AI大模型性能的专业平台
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准
众包匿名随机对战的LLM基准平台《Chatbot Arena》
一个全面的中文基础模型评估套件,旨在提供多维度、系统化的模型性能测评,确保技术应用的准确性和可靠性