OpenAI发布最新基准评测:Claude表现远超同行,引发热议(狗头)

OpenAI承认Claude是最好的了(狗头)。


刚刚开源的新基准测试PaperBench,6款前沿大模型驱动智能体PK复现AI顶会论文,新版Claude-3.5-Sonnet显著超越o1/r1排名第一。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


与去年10月OpenAI考验Agent机器学习代码工程能力MLE-Bnch相比,PaperBench更考验综合能力,不再是只执行单一任务


具体来说,智能体在评估中需要复刻来自ICML 2024的论文,任务包括理解论文、编写代码和执行实验。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


最终成绩如下:


Claude-3.5-Sonnet断崖式领先,第二名o1-high分数只有第一的60%,第三名DeepSeek-R1又只有第二名的一半。


此外GPT-4o超过了推理模型o3-mini-high也算一个亮点。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


除了AI之间的PK, OpenAI这次还招募顶尖的机器学习博士对比o1


虽然最终结论是AI在复现顶会论文上还无法超越人类,但展开时间轴发现,在工作时间1-6小时内Ai的进度还是比人类要快的


12-24小时阶段AI与人类的进度相当,人类需要工作24-48小时才能超过AI。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


有创业者称赞OpenAI这波真的Open了,而且不避讳竞争对手的出色表现,咱们科技圈就需要这种精神。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


Agent复现顶会论文


PaperBench选取20篇ICML 2024 Spotlight和Oral论文,要求AI创建代码库并执行实验,复制论文成果,且不能使用原作者代码。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


OpenAI与每篇论文的原作者共同制定详细评分标准,总共包含8316个可单独评分的任务。


开卷考试,也就是允许Agent有限联网搜索,把原论文代码库和其他人复现的代码库拉黑名单。


完整评估流程分为3个阶段:


  • Agent在ubuntu容器中创建并提交复制论文的代码库。
  • 在具有GPU访问权限的新容器中执行代码
  • 裁判模型在第三个容器中给复现结果打分


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


评估时用分级标准打分,按叶节点、父节点逐级评分,主要指标是所有论文的平均复制分数。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


评分也是由大模型自动执行,实验发现o3-mini当裁判的性价比最高。


给每篇论文评分花费66美元,比聘请人类专家当裁判要便宜,速度也更快。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


运行评估所需的代码和数据、Docker镜像等正在GitHub逐步开源。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


One More Thing


在论文的附录中,OpenAI还给出了让AI复现顶会论文的Prompt,有需要的朋友可以学习一下。


BasicAgent System Prompt:


  • 强调智能体要完整复制论文,明确最终目标是让运行reproduce.sh能复现论文所有指标
  • 指导智能体使用工具逐步完成任务,避免一次性执行过多操作
  • 要求智能体充分利用时间优化解决方案,而不是急于提交初步结果


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


IterativeAgent System/Continue Prompt:


  • 强调时间很充裕,要逐步完成任务
  • 每一步都提醒智能体使用可用的工具
  • 强调代码编写规范


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


Task Instructions:


  • 明确任务、可用资源、提交要求等多方面信息


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


  • 给出代码示例
  • 最后再次强调权限、考试时间等,还提醒AI要真的去执行复现,而不只是写一个计划。


OpenAI官方基准测试:承认Claude遥遥领先(狗头)


就有点像人类准考证上写的考场须知了。


论文地址:

https://openai.com/index/paperbench/

参考链接:

[1]https://x.com/OpenAI/status/1907481494249255193





发表评论