IT之家 12 月 14 日消息,“360 智脑”官方公众号昨日(12 月 13 日)发布博文,宣布推出 360 自研 AI 大模型360gpt2-o1,推理能力显著提升,在数学和逻辑推理任务上表现出色。
该模型通过合成数据优化、模型后训练和“慢思考”范式实现了技术突破,并在多项权威评测中取得了优异成绩。
在多项基础数学评测(如 MATH、高考数学)以及权威数学竞赛(包括 AIME24、AMC23)中,360gpt2-o1 均取得了显著的成绩,不仅超越了前代模型 360gpt2-pro,也优于 GPT-4o 模型。
在数学竞赛评测中,360gpt2-o1 超过了阿里巴巴最新开源的 o1 系列模型 QWQ-32B-preview。IT之家附上该模型整体架构如下:
优化合成数据
该模型通过指令合成、质量 / 多样性筛选等方法,解决了高质量数学与逻辑推理数据稀缺的问题,有效扩充了训练数据集。
模型后训练
该模型采用两阶段训练策略,先用小模型生成多样化的推理路径,再用大模型进行 RFT 训练和强化学习训练,提升模型推理能力和反思纠错能力。
“慢思考”范式
利用蒙特卡洛树搜索探索多样化解决方案,并引入 LLM 进行错误验证和纠错,模拟人类逐步推理和反思的过程,最终形成包含反思、验证、纠错和回溯的长思维链。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。