OpenAI 内斗「第二弹」来了?外媒惊曝,OpenAI 超级对齐团队关键人物忽然被解雇了,理由是有泄密行为。而且,此人还是 Ilya 的重要盟友和亲信。而身处风暴中心的 Ilya,依然未曾露面……
据外媒报道,OpenAI 超级对齐团队的 2 名研究员,因泄露「机密」被正式开除!而这也是今年 3 月 Sam Altman 重掌董事会席位后,OpenAI 首次对外公开的人事变动。
被解雇的研究员之一 Leopold Aschenbrenner,曾在新成立的超级对齐团队工作。同时,他也是 OpenAI 首席科学家 Ilya Sutskever 的支持者,OpenAI 内斗风波后,Ilya 至今尚未在公开场合露面。
另一位被解雇的员工 Pavel Izmailov,曾负责推理方面的研究,在安全团队亦有贡献。
值得一提的是,被解雇的这俩人,都是去年 OpenAI 超级对齐团队新论文的作者。
不过,目前尚不清楚,两位被解雇员工具体泄露了哪些信息。
OpenAI 的发展情况,仍然是稳中向好,势如破竹,最近一次员工股票出售中,它的估值甚至一度高达 860 亿美元。
而超级对齐团队(Superalignment),是 OpenAI 内部一个颇具话题性的部门。
AI 发展到最后,如果成为超级智能,好处是或许能帮我们解决核聚变问题,甚至开拓其他星球,但反过来,这么厉害的它,开始危害人类了怎么办?
为此,在去年夏天,Ilya Sutskever 成立了这个团队,来研发控制和指导超级智能的技术。
Aschenbrenner,恰恰就是超级智能对齐团队的关键人物之一。
一个争议就是:这个团队真的有存在的必要吗?
OpenAI 内部,员工对此意见不一。
此前的内斗风波,跟这个理念的争议也脱不了干系。
作为 OpenAI 联合创始人、重大技术突破负责人,Ilya 曾与其他董事会成员一起,决定解雇 Sam Altman,原因是他缺乏坦诚。
而 Altman 宫斗归来、重返 CEO 之职后,Ilya 离开了董事会,从此似乎销声匿迹,引来众多网友的猜疑。
又是「有效利他主义」
耐人寻味的是,事件中的众多人物,都有「有效利他主义」(Effective Altruism),有着千丝万缕的关联。
对齐团队关键人物 Aschenbrenner,便是有效利他主义运动的一员。
该运动强调,我们应该优先解决 AI 潜在的风险,而非追求短期的利润或生产力增长。
说到这里,就不能不提大名鼎鼎的币圈大佬、如今沦为阶下囚的 FTX 创始人 Sam Bankman-Fried 了,他也是有效利他主义的忠实拥趸之一。
19 岁时毕业于哥大的 Aschenbrenner,曾在 SBF 创建的慈善基金 Future Fund 工作,该基金致力于资助能够「改善人类长远前景」的项目。
一年前,Aschenbrenner 加入了 OpenAI。
而把 Altman 踢出局的其他董事会成员,也都被发现和有效利他主义有干系。
比如,Tasha McCauley 是 Effective Ventures 的董事会成员,后者即是有效利他中心的母组织。
而 Helen Toner 曾在专注于有效利他的 Open Philanthropy 项目工作。
去年 11 月 Altman 重任 CEO 时,二人也都来开了董事会。
这样看来,此次 Aschenbrenner 被开除究竟是因为泄密,还是因为其他原因,就值得探究了。
总之,Sam Altman 看来是跟有效利他主义主义的这帮人杠上了 —— 毕竟他们的理念,实在是 Altman 理想中 AGI(甚至 ASI)的最大绊脚石。
Leopold Aschenbrenner 还在大三时,便入选了 Phi Beta Kappa 学会,并被授予 John Jay 学者称号。
19 岁时,更是以最优等成绩(Summa cum laude)从哥伦比亚大学顺利毕业。
期间,他不仅获得了对学术成就授以最高认可的 Albert Asher Green 奖,并且凭借着「Aversion to Change and the End of (Exponential) Growth」一文荣获了经济学最佳毕业论文 Romine 奖。
此外,他还曾担任政治学的 Robert Y. Shapiro 教授和经济学的 Joseph E. Stiglitz 教授的研究助理。
Leopold Aschenbrenner 来自德国,现居风景优美的加利福尼亚旧金山,志向是为后代保障自由的福祉。
他的兴趣相当广泛,从第一修正案法律到德国历史,再到拓扑学,以及人工智能。目前的研究专注于实现从弱到强的 AI 泛化。
Pavel Izmailov 在莫斯科国立大学获得数学与计算机科学学士学位,在康奈尔大学获得运筹学硕士学位,并在纽约大学获得计算机科学博士学位。
他的研究兴趣广泛,包括机器学习核心领域内的多个主题,不过主要还是致力于深入理解深度神经网络是如何运作的。
提升 AI 的推理和问题解决能力
深度学习模型的可解释性,涵盖大语言模型和计算机视觉模型
利用 AI 进行科学发现
大规模模型的分布外泛化和鲁棒性
技术 AI 对齐
概率深度学习、不确定性估计和贝叶斯方法
此外,他所在团队关于贝叶斯模型选择方面的工作,更是在 2022 年的 ICML 上获得了杰出论文奖。
加入 OpenAI 之前,他曾在亚马逊、谷歌等大厂实习
从 2025 年秋季开始,Izmailov 将加入纽约大学,同时担任 Tandon CSE 系助理教授和 Courant CS 系客座教授,并加入 NYU CILVR 小组。
在这项研究中,OpenAI 团队提出了一个创新性模型对齐方式 —— 用小模型监督大模型。
Leopold Aschenbrenner 对此解释道,直觉告诉我们,超人类人工智能系统应该能「感知」自己是否在安全地操作。
但是,人类能否仅通过「弱监督」就从强大的模型中提取出这些概念呢?
在未来,AI 系统可以处理极其复杂的任务,比如生成一百万行代码。
但是人类需要为其行为设置一些限制,比如「不要撒谎」或「不要逃离服务器」。
而目前,大模型这个黑盒,人类根本无法理解它们的行为,那我们如何实现这些限制?
通常情况下,我们会用人类的标注来训练 AI 系统。
但是,相比于那些比我们聪明得多的 AI 系统,人类只能算是「弱监督」。
也就是说,在复杂的问题上,人类提供的只是不完整或有缺陷的标注。
好在,强大的模型已经能够明显地,表示出像「这个行动是否危险」这样的概念。
如此一来,人类就可以要求它说出自己知道的内容,包括那些我们无法直接监督的复杂情况。
为此,团队设计了一个巧妙的实验 —— 当我们用一个小模型来监督大模型时,会发生什么?
强大的模型是否会模仿比它弱的监督者,甚至包括它的错误呢?还是说,它能够泛化到更深层次的任务或概念?
结果,他们惊喜地发现,果然可以利用深度学习的出色泛化能力来获得帮助。
像 GPT-2 这种数到十都不会的弱鸡模型,都可以来监督能参加高考的 GPT-4,让它恢复到接近完美标注的 80% 性能。
不过,目前这种方法只在某些情况下有效,所以如果我们只是简单地应用当前对齐技术(比如 RLHF)的话,在超人类模型的扩展上可能遇到困难。
但作者认为,超越弱监督者的泛化是一个普遍现象,而人类可以通过简单的方法大幅提高泛化能力。
针对这项研究,未来探索的方向可能包括:
寻找更好的方法;
加深科学理解:我们何时以及为什么能看到良好的泛化?
采用类似的设置:实验设置与未来超级对齐问题之间还存在重要的不同 —— 我们能解决这些问题吗?
这项研究让作者最兴奋一点是,他们可以在对齐未来超人类模型的核心挑战上,取得迭代的实证进展。
很多以前的对齐工作要么陷入理论,要么虽然是实证的,但并未直接面对核心挑战。
比如,在对齐领域有一个长期的观点是「引导」。(不是直接对齐一个非常聪明的模型,而是首先对齐一个稍微聪明的模型,然后用它来对齐一个中等聪明的模型,依此类推)
现在,虽然还远远不够,但 OpenAI 研究人员已经可以直接进行测试了。
参考资料:
https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking?rc=epv9gi
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。