MMBench

https://mmbench.opencompass.org.cn/leaderboard 是 MMBench 的官方排行榜页面,由 OpenCompass ...

  • MMBench

    类别:大模型评测
    官网:https://mmbench.opencompass.org.cn/leaderboard 更新时间:2025-07-28 18:35:59
  • https://mmbench.opencompass.org.cn/leaderboard 是 MMBench 的官方排行榜页面,由 OpenCompass 社区维护。MMBench(Multi-Modal Benchmark)是一个多模态基准测试平台,旨在评估大型视觉-语言模型(Vision-Language Models, VLMs)的多模态理解能力。该排行榜展示了不同模型在 MMBench 测试集上的性能表现,为研究人员、开发者以及 AI 社区提供了一个直观的比较平台。

    网站功能与内容

    1. 模型性能排行榜

      • 该页面列出了参与评测的多种多模态 prawie:11大语言模型(LLMs)和视觉-语言模型的性能数据。
      • 排行榜通常按模型的综合得分排序,并可能包括细分能力(如感知、推理、语言理解等)的具体得分。
      • 常见的模型包括开源模型(如 LLaVA、Qwen-VL)和商业模型(如 GPT-4o、Gemini),具体取决于提交和评测的更新情况。
    2. 评测维度

      • MMBench 涵盖约 3000 道多选题,涉及 20 个细粒度能力维度,例如目标检测、文字识别、关系推理、逻辑推理等。
      • 排行榜可能展示模型在这些具体任务上的表现,帮助用户了解模型的强项和短板。
    3. 数据提交与更新

    4. 可视化与对比

      • 网站提供直观的表格或图表形式展示数据,便于用户对比不同模型。
      • 用户可以筛选或排序数据,查看特定模型或能力的详细信息。

    使用场景

    • 研究与开发:研究人员利用排行榜数据评估模型性能,优化算法。
    • 模型选择:开发者可根据排行榜选择适合其任务的模型。
    • 社区贡献:鼓励用户提交新模型结果,共建开源评测生态。

    如何访问与使用

    这个排行榜是多模态 AI 领域的重要资源,体现了 MMBench “评估全方位多模态模型能力”的目标。