众包匿名随机对战的LLM基准平台《Chatbot Arena》
《MMBench》:全面评估多模态大模型能力的权威评测体系
斯坦福大学推出的大模型评测体系《HELM》旨在全面评估AI模型的性能和可靠性
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
PubMedQA是生物医学研究领域的问答数据集和模型得分排行榜,旨在评估和提升AI模型在生物医学文献理解方面的能力。
Hugging Face推出的开源大模型排行榜,展示最新最全的模型性能对比。
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准