SuperCLUE 是针对中文大模型的综合性评测基准,能全面评估模型在多个维度上的性能表现。SuperCLUE 通过多轮对话、客观题测试等多种方式,从语言理解与生成、知识应用、专业技能、环境适应与安全性等四大能力象限的 12 项基础能力进行评估。SuperCLUE 对比不同模型之间的表现,支持与人类表现进行对比,为中文大模型的研发与优化提供科学依据。SuperCLUE 新增对 AI Agent 智能体的评估,重点测试工具使用和任务规划能力。SuperCLUE 定期更新榜单,发布详细的技术报告,推动中文大模型技术的发展。