.hd-box .hd-fr

OpenAI o3 模型基准测试成绩遭质疑,实测分数远不及宣称

2025-04-21 07:24IT之家(远洋)0评

IT之家 4 月 21 日消息,OpenAI 的 o3 人工智能模型的第一方与第三方基准测试结果存在显著差异,引发了外界对其公司透明度和模型测试实践的质疑。

去年 12 月,OpenAI 首次发布 o3 模型时宣称,该模型能够在 FrontierMath 这一极具挑战性的数学问题集上正确回答超过四分之一的问题。这一成绩远远超过了竞争对手 —— 排名第二的模型仅能正确回答约 2% 的 FrontierMath 问题。OpenAI 首席研究官 Mark Chen 在直播中表示:“目前市场上所有其他产品在 FrontierMath 上的成绩都不足 2%,而我们在内部测试中,使用 o3 模型在激进的测试时计算设置下,能够达到超过 25% 的正确率。”

然而,这一高分似乎是一个上限值,是通过一个计算资源更为强大的 o3 模型版本实现的,而并非是 OpenAI 上周公开发布的版本。负责 FrontierMath 的 Epoch 研究所于上周五公布了其对 o3 模型的独立基准测试结果,发现 o3 的得分仅为约 10%,远低于 OpenAI 此前声称的最高分数。

这并不意味着 OpenAI 故意撒谎,该公司在 12 月份公布的基准测试结果中也包含了一个与 Epoch 测试结果相符的较低分数。Epoch 还指出,其测试设置可能与 OpenAI 有所不同,并且其评估使用了更新版本的 FrontierMath。Epoch 在报告中写道:“我们与 OpenAI 的结果差异可能是因为 OpenAI 在内部评估时使用了更强大的计算框架、更多的测试时计算资源,或者是因为这些结果是在 FrontierMath 的不同子集上运行的(例如 2024 年 11 月 26 日版本的 180 个问题与 2025 年 2 月 28 日私有版本的 290 个问题)。”

此外,ARC Prize 基金会(一个测试了 o3 预发布版本的组织)在 X 平台上发布消息表示,公开发布的 o3 模型是一个“针对聊天 / 产品使用进行了调整的不同模型”,这进一步证实了 Epoch 的报告。ARC Prize 还指出:“所有发布的 o3 计算层级都比我们测试的版本要小。”一般来说,更大的计算层级通常可以获得更好的基准测试分数。

值得注意的是,尽管公开版本的 o3 未能完全达到 OpenAI 测试时的表现,但这在一定程度上已不再是关键问题,因为该公司后续推出的 o3-mini-high 和 o4-mini 模型在 FrontierMath 上的表现已经优于 o3。此外,OpenAI 计划在未来几周内推出更强大的 o3 版本 o3-pro。

然而,此事再次提醒人们,人工智能基准测试结果最好不要完全照单全收,尤其是当结果来自一家有产品需要销售的公司时。随着人工智能行业竞争的加剧,各供应商纷纷急于通过推出新模型来吸引眼球和市场份额,基准测试“争议”正变得越来越常见。

IT之家注意到,今年 1 月,Epoch 因在 OpenAI 宣布 o3 之后才披露其从 OpenAI 获得的资金支持而受到批评。许多为 FrontierMath 做出贡献的学者直到公开时才知道 OpenAI 的参与。最近,埃隆・马斯克的 xAI 被指控为其最新的人工智能模型 Grok 3 发布了误导性的基准测试图表。就在本月,Meta 也承认其宣传的基准测试分数所基于的模型版本与提供给开发者的版本不一致。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论