强化学习之父入局 AGI 创业!联手传奇程序员卡马克,放话不依赖大模型
- 量子位
2023-10-08 15:13
传奇程序员卡马克 (John Carmack),与强化学习之父萨顿 (Richard Sutton)强强联手了,All in AGI。
2030 年向公众展示通用人工智能的目标是可行的。
并且与主流方法不同,不依赖大模型范式,更追求实时的在线学习。
两人在萨顿任教的阿尔伯塔大学机器智能研究所(Amii)特别活动上宣布了这一消息。
萨顿会加入卡马克的 AI 创业公司 Keen Technologies,同时保持在阿尔伯塔的教职。
两人在活动中都承认,与拥有成百上千员工的大公司相比,Keen Technologies 的团队规模很小。
目前还在刚起步阶段,公司整个技术团队都到了现场 —— 只有站着的这 4 个人。
其融资规模 2000 万美元,与 OpenAI、Anthropic 这样动辄几十亿的也没法比。
但他们相信,最终 AGI 的源代码是一个人就能编写的量级,可能只有几万行。
而且当前 AI 领域正处在杠杆效应最大的特殊时刻,小团队也有机会做出大贡献。
传奇程序员与强化学习之父
卡马克的传奇经历,从开发世界第一款 3D 游戏,到转型造火箭,再到加入 Oculus 成为后来 Meta VR 关键人物的故事都已被人熟知。
后来他与 AI 结缘,还和 OpenAI 有关。
他曾在另一场访谈中透露,Sam Altman 曾邀他加入 OpenAI,认为他能在系统优化方面发挥重要作用。
但卡马克当时认为自己对机器学习范式的现代 AI 没有任何了解,也就没有答应。
这却成了他开始了解 AI 的一个契机。
他向 OpenAI 的首席科学家 Ilya Sutskever 要了一个入门必读清单,从头开始自学,先对传统机器学习算法有了基本的了解。
等有了空闲,打算继续涉足深度学习的时候,他来了个一周编程挑战:
打印几篇 LeCun 的经典论文,在断网情况下动手实践,从推反向传播公式开始。
一周过去后,他带着用 C++ 手搓的卷积神经网络结束闭关,没有借助 Python 上的现代深度学习框架。
只能说佩服大神了。
此时他的主业还是在 Facebook(后改名 Meta)旗下 Oculus 研究 VR,带领团队推出了 Ouclus Go 和 Quest 等产品。
不过这个过程中,他与公司管理层之间也逐渐产生矛盾和分歧,认为公司内部效率低下,也曾公开发表不满。
2019 年,他辞去 Oculus CTO 职位转而担任“顾问 CTO”,开始把更多精力转向 AI。
2022 年 8 月,他宣布新 AI 创业公司 Keen Technologies 宣布融资 2000 万美元,投资者包括红杉资本,GitHub 前 CEO Nat Friedman 等。
后续他也透露,其实区区 2000 万美元,自己就拿得出手。
但是从别人那里拿钱能给他一种危机和紧迫感,有更强烈的决心把事情做好。
2022 年底,他正式离开 Meta,并将 VR 视为已经过去的一个人生阶段,接下来完全转向 AI。
除了这条明面上的主线之外,卡马克与 AI 还有一些莫名的缘分。
当年他的 3D 游戏激发了对图形计算的需求,GPU 也是从游戏领域开始发展壮大。
到如今正是 GPU 的算力支持了 AI 的爆发,他谈到这些时仍为自己的贡献感到自豪。
……
今天的另一位主角萨顿也同样是位传奇人物。
他被誉为强化学习之父,为强化时间差异学习和策略梯度等方法做出重要贡献,也是强化学习标准教科书的合著者。
2017 年他以杰出科学家身份加入 DeepMind,参与了 AlphaGo 系列研究,他的学生 David Silver 则是 AlphaGo 主要负责人之一。
萨顿写过一篇著名短文 The Bitter Lesson,认为试图把人类经验教给 AI 是行不通的,至今为止所有突破都是依靠算力提升,继续利用算力的规模效应才是正确道路。
两人正式交流之前,卡马克就曾表达过对这篇文章的关注和认同。
但两人真正直接交流,是萨顿主动联系的。
几个月前,卡马克宣布 AGI 创业公司融资之后,收到了萨顿的邮件。
萨顿想要问他他在研究的道路上应该走纯学术、商业化还是非盈利组织路线的问题。
但在后续邮件交流中,两人发现在 AI 研究方向和理念上存在惊人的一致性,渐渐确立了合作关系。
具体来说,两人达成了 4 个共识:
都认为当前 AGI 发展被限制在很窄的几个方向上,过多依赖大数据和大算力而忽视了创新
都认为太早商业化会阻碍 AGI 的发展
都认为最终 AGI 不会太复杂,一个人就能掌握全部原理,甚至一个人就能写出主要的代码。
都认为 2030 年出现 AGI 原型是一个可行的目标。
不只依赖大模型,小团队也有机会
很大胆的目标,现场观众也是这么认为的。
面对“小团队如何搞定这么宏大的目标”的提问,卡马克认为实现 AGI 所需的数据量和算力需求可能没有想象中那么大。
把人类一整年眼中所见拍成每秒 30 帧的视频,可以装在拇指大小的 U 盘里。
而 1 岁儿童只拥有这么多经验数据,已经展现出明显的智能。
如果算法对了,就不需要用整个互联网的数据让 AGI 去学习。
对于算力需求,他也是用这种直觉式的思维去考虑:人脑的计算能力也有限,远远达不到一个大型算力集群的程度。
比一个服务器节点(node)要大,也比一个机柜(rack)要大,但最大也就再高出一个数量级。
而且随着时间推移,算法会更加高效,所需的算力还会持续下降。
如果说卡马克在 3D 游戏、火箭和 VR,这些看似不搭边的工作领域上有什么共同点,那就是对大型实时反馈系统的优化。
这也是当初 Sam Altman 邀请他加入 OpenAI 时看中的地方。
他设想中的 AGI 架构应该是模块化和分布式的,而不是一个巨大的集中模型。
学习也应该是持续的在线学习,而不是现在的预训练之后大部分参数就不再更新。
我的底线是,如果一个系统不能以 30hz 的频率运行,也就是训练时 33 毫秒左右更新一次,我就不会用它。
他进一步表示,作为能自己写原始 Cuda 代码和能自己管理网络通信的底层系统程序员,可能会去做一些其他人根本不会考虑的工作。
甚至不仅局限于现有的深度学习框架,会尝试更高效的网络架构和计算方法。
总体目标是模拟一个具有内在动机和持续学习能力的虚拟智能体,在虚拟环境中持续学习。
不要机器人,因为制造火箭的经历让他认为打交道的物理对象越少越好。
与卡马克刚涉足 AGI 不久相比,萨顿在这个问题上已经花费了几十年,他有更具体的研究计划。
虽然这次活动上没有说太多,但主体部分已经以“阿尔伯塔计划”的形式写在一篇 arXiv 论文里。
阿尔伯塔计划提出了一个统一的智能体框架,强调普遍经验而不是特殊的训练集,关注时间一致性,优先考虑能随算力产生规模效应的方法,以及多智能体交互。
还提出了一个分为 12 步的路线图。
前 6 步专注于设计 model-free 的持续学习方法,后 6 步引入环境模型和规划。
其中最后一步称为智能增强 (Intelligence Amplification),一个智能体可以根据一些通用原则,利用它所学到的知识来放大和增强另一个智能体的行动、感知和认知。
萨顿认为这种增强是充分发挥人工智能潜力的重要组成部分。
在这个过程中,确定评估 AI 进步的指标非常重要但也十分困难,团队正在探索不同的发展。
另外,卡马克一直是开源的倡导者,但在 AGI 的问题上他表示会保持一定开放性,但不会全部公开算法细节。
作为一个小团队,卡马克认为需要保持开拓精神,关注长远发展而不是短期利益,
不会过早考虑商业化,没有像 ChatGPT 这样可以公开发布的中间形态。
对于 2030 年能做到什么地步,卡马克认为“有可以向公众展示的 AGI”,萨顿的表述是“AI 原型可以显示出生命迹象(signs of life)”。
2030 成关键节点
2030 与 AGI,并不是第一次同时出现。
顶尖 AI 团队不约而同都把 2030 年前后作为实现 AGI 的关键节点。
比如 OpenAI,在拿出 20% 总算力成立超级智能对齐部门的公告里写着,我们相信超级智能在这个十年段到来。
甚至投资界也出现类似的观点,孙正义刚刚在软银世界企业大会上也拿出来这样一张 PPT。
除了 OpenAI 和 Keen Technologies,致力于开发 AGI 的组织并不多。
OpenAI 最大的竞争对手,刚刚拿 40 亿美元融资的 Anthropic,其 CEO Dario Amodei 在最近一次访谈中提到,两三年内 AI 能表现得像一个受过良好教育的人类。
Transformer 作者 Vaswani 与 Palmer 离开谷歌时,创办了 AdeptAI,目标也是打造通用智能。
不过目前两人今年初突然离开这家公司,联合创始人中只留下一位 David Luan(最右)。
两位 Transformer 作者另外创办了一家 Essential AI,这家公司的愿景就没那么“仰望星空”了,是比较务实的大模型商业化。
国内方面明确喊出 AGI 目标的同样也不多,主要有 MiniMax 和杨植麟新创办的月之暗面。
参考链接:
[1]https://www.amii.ca/latest-from-amii/john-carmack-and-rich-sutton-agi/
[2]https://www.youtube.com/watch?v=uTMtGT1RjlY
[3]https://arxiv.org/abs/2208.11173
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。