.hd-box .hd-fr

OpenAI 开 300 万 + 年薪招「超级 AI 研究员」,投入 20% 总算力成立新部门,目标 4 年内「控制奥创」

2023-07-08 20:44量子位(梦晨)34评

OpenAI 一次性拿出20% 总算力,投入全新研究方向 ——

超级智能对齐(Superalignment)。

先说说 OpenAI 的 20% 总算力什么概念?

光是微软此前专门给他们打造的一台超级计算机,就有 285000 块 CPU 和上万块英伟达 A100 GPU

外界没人知道 OpenAI 现在拥有多少H100 GPU,只知道他们总融资113 亿美元,还要算上微软额外提供的Azure 云算力

这番大手笔,仿佛直接在科技圈扔下一个炸弹。

再看这份公告中的微妙用词区别:

不是通用人工智能(AGI),甚至干脆去掉了人工二字。

直接越级瞄准如何控制超级智能,其定义为比人类聪明得多的 AI 系统(much smarter than us)。

正文则明晃晃地写着:虽然看起来还很遥远,但我们相信超级智能将在这个十年段到来。

现在是 2023 年下半年,总共留给人类的时间还有6 年半

OpenAI 给自己定的时限更短,只有 4 年。

控制“奥创”需要“贾维斯”

有网友将 OpenAI 公布的研究方法形容为“贾维斯 vs 奥创”

OpenAI 明白靠人类自己已无法完成,提出新概念自动对齐研究员(automated alignment researcher)

也就是先训练一个大致达到人类水平的 AI 研究员,再投入大量算力快速迭代。

翻译一下:先努力达到技术奇点,然后直接开启大爆炸。

整个计划的基石,就是先打造第一个自动对齐研究员。

为此 OpenAI 提出一个临时解决方案,分为三项:

开发一个可扩展的训练方法

为了在人类难以评估的任务上提供训练信号,需要利用 AI 来协助评估其他 AI 系统,称为“可扩展的监督”。

验证第一步产生的模型

为了验证系统的一致性,自动搜索有问题的行为和有问题的内部结构。

对整个管道流程做压力测试

通过故意训练不对齐的模型来测试整个管道,并确认技术可以检测到最糟糕的错误类型,也就是对抗性测试。

为什么说是临时解决方案?

OpenAI 预计随着对问题进一步了解,研究重点将发生实质性变化,很可能增加全新的研究领域。

再翻译一下:只能走一步看一步。

首席科学家带队,成立全新部门

研究顶级的问题需要顶级的团队。

OpenAI 联创和首席科学家Ilya Sutskever将与此前的对齐团队负责人Jan Leike共同领导新部门。

而成员不光包括 OpenAI 自己的员工,也包括来自其它公司的研究人员。

Ilya Sutskever 是 2012 年开启深度学习时代的 AlexNet 作者之一,也是 AlphaGo 作者之一,此前已将 AI 对齐作为他的核心研究重点,总引用数超过 40 万。

Jan Leike 则是 ChatGPT 的前身 InstructGPT 论文作者之一,并且早在 2017 年就参与了 OpenAI 与 DeepMind 合作的人类反馈强化学习方法。

Jan Leike 认为,OpenAI 此次投资很可能比全人类此前对 AI 对齐研究的所有投资加起来还多。

算上这二位,目前新团队已有 10 位成员。

新一轮招聘也随之开启,分为研究经理(年薪 42 万-50 万美元),研究科学家研究工程师(年薪 24.5 万-45 万美元),两种级别三个岗位。

谁来监管监管者?

对于 OpenAI 的大动作,学术界有不同观点。

认同的学者表示:自然智能通过竞争的进化奖励产生,AI 通过对齐人类利益的进化奖励产生,并期待未来的效果。

但也有人表示 OpenAI 从根本上就错误地理解了“对齐”这个概念。

他认为对齐不能是强制控制,而应该是使双方利益一致,类似于“堵不如疏”。

有网友吐槽“真不敢相信,AGI 很可能在鸽了很久的《上古卷轴 6》游戏之前到来。”

评论区有人指出,到时候你想玩什么游戏让 AI 去做就好了。

也有网友灵魂发问,谁又来监管监管者呢?

参考链接:

本文来自微信公众号:量子位 (ID:QbitAI),作者:梦晨

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论