.hd-box .hd-fr

Sam Altman 放豪言:OpenAI 训 GPT-5 不差钱,人类已接近 AGI 阈值

2023-11-07 18:24新智元(新智元)23评

【新智元导读】前段时间,OpenAI CEO Sam Altman 和 CTO Mira Murati 在 WSJ 的专访里,探讨了 AGI、未来 GPT 的发展、以及 AI 对人类的影响。

「OpenAI 的最终目标为什么是 AGI?什么是 AGI?」

「ChatGPT 以及其他语言模型的用途是什么?」

「人类与人工智能的关系在未来会发生什么变化?」

在 2023 年《华尔街日报》(WSJ)的科技新闻发布会上,OpenAI 的首席执行官 Sam Altman 和首席技术官 Mira Murati 讨论了人工通用智能(AGI)、未来 GPT 模型的发展,以及人工智能对人类的影响。

而九年前,Sam Altman 在《华尔街日报》会议上表示人工智能导致人类失业,是个不需要太担心的很久以后才会发生的事。

不到十年时间,Altman 和他共同创立的公司 OpenAI 发布了名为 ChatGPT 的人工智能聊天机器人。

它能够撰写电子邮件、商业计划、甚至是代码,而这在九年前是难以想象的。

在讨论当下人工智能对人类社会带来的冲击和影响时,Altman 仍然乐观,但比九年前更加慎重。

OpenAI 的终极目标:AGI

AGI,这个概念从诞生起,就被人们赋予了无限美好的想象。

Altman 同样如此,他认为 AGI 会是人类有史以来最杰出的造物。

有了这个伟大的工具,人类就能够解决现今世界上的各种问题,并为人类自己、彼此和世界创造出难以想象的新鲜事物。

那时候,人类会有更具创意的自我表现手段。但 Altman 肯定,这些变化将为人类带来巨大的好处。

「再过九年,华尔街日报邀请我时,你们可能会提问:那时候我们为什么会认为人类不想要 AGI 到来呢?」

那么 AGI 将会在什么时候出现?人们又要如何分辨 AGI 的到来?

Altman 将 AGI 定义为我们还没有的东西。十年前,人们可能会觉得像 GPT-4 或 GPT-5 就是 AGI。

但现在,GPT-4 只是被人们看作为一个还不错的「小聊天机器人」。

人们对 AGI 的基准门槛要求变得越来越高,这要求人们对人工智能付出的努力也越来越多。

Altman 表示,「人类现在已经足够接近 AGI 的阈值,提升 AI 的能力变得不那么重要。我们当前面临的问题是如何定义 AGI。」

GPT-5:解决「幻觉」与数据版权问题

OpenAI 自成立后已发布了多个版本的 GPT,每个版本都比上一个更强大。

今年 3 月,OpenAI 发布了最新的模型 ——GPT-4。但关于 OpenAI 的下一个模型,人们依旧充满了期待:GPT-5 是否正在研发?

面对这个问题,OpenAI 的 CTO Mira Murati 的回答是,「我们还没到这一步」。

但她也表示,OpenAI 一直致力于下一件事,如减少模型幻觉:未来发布的 GPT-5 将致力于解决现在困扰模型的幻觉问题。

Mira 表示,虽然 GPT-4 已经在幻觉问题上取得了很大的进展,但离完全解决幻觉问题还有一段距离。

但 OpenAI 一直沿着解决问题的正确的轨道:人类反馈强化学习(RLHF),让模型输出真正可靠的内容。

并且,OpenAI 还通过整合多种技术来减少模型幻觉问题,如为模型增加检查和搜索的能力,为模型提供更多的事实数据,以保证用户能够从模型中获得更多的事实输出。

但对 OpenAI 来说,版权一直是个争议。

不仅是用来训练模型的数据、模型生成的内容也常常涉及到版权保护问题。

多个出版商、以及作家都对 OpenAI 的侵权行为多有抗议。

而 Altman 从另一个角度讨论了数据使用以及数据所有权问题。

在未来,OpenAI 的新模型将成为每个人都能使用的基础设施,这意味着思考数据所有权和经济流动的方式都会发生改变。

现在,OpenAI 正在努力与不同的数据版权所有者建立合作关系,但随着模型的智能和能力变得越来越强,未来训练模型所需的数据也会变得越来越少。

但当前的模型,在训练时仍然需要尽可能多的人类所生产的每个数据。不过,Altman 表示这不会是模型未来长期发展的路径,因为未来真正重要的是有价值的数据。

随着 OpenAI 在技术上的进步,关于数据和所有权的讨论将会发生转变。

人类与 AI 的未来

首先是人类与 AI 的关系问题。

9 月 25 日,OpenAI 为 GPT-4 加入了更多的个性化功能。现在,ChatGPT 可以看、听和说话。

新增的 GPT-4 的语音功能相当人性化,与人的交流十分自然。

可以预见的是,无处不在的 AI 即将成为人类生活的现实。

未来,我们无法避免与人工智能的交互,而这带来了一个问题:人类应该如何对待自己与人工智能的关系。

而训练模型的 OpenAI 以及其他公司,在某种程度上能够控制与人们缔结起关系的人工智能。

这将是一个令人不安的未来,这些人工智能很可能会成为人类的朋友、甚至是伴侣。

但 Altman 明确表示,自己不希望人们与人工智能建立起超出人类朋友的亲密关系:人工智能与人类不同,也许这些系统充满了个性,但这与人性无关。

因此,与人工智能交流时,要和人类交流有所区别。

「我们之所以将模型命名为 ChatGPT 而不是一个人的名字,是为了让用户明确和自己交流的是一个人工智能,而不是真正的人类。」Altman 强调了这点。

但就像人们拥有有很多不同的关系那样,人也会与人工智能建立起特别的关系。但最终,人们会意识到人工智能与人类是不同的,但我们与其建立起的关系不会因此而破裂。

另一方面,AI 的迅速发展也让人们担心其带来的不可控风险:利用这些系统进行犯罪以及对就业市场的冲击。

如命令 AI 入侵计算机系统或设计生化武器等。

这并非是遥不可及的未来,从生成式 AI 潮爆发后,利用 AI 进行诈骗和网络攻击的行为已屡见不鲜。

但 Altman 认为,在技术发展的过程中,这些负面的影响是不可避免的。

我们要去解决的是技术带来的风险,而不是放弃发展。后者对人类来说,仍然是一种道德上的失败。

而在人类历史上,几乎每一次技术革命都会深刻地影响就业市场,或是发生彻底的颠覆或是一半的工作岗位都会消失。

但事实上,旧的工作消失后,新的工作就会诞生。这正彰显了人类的进步,问题在于我们的社会适应变化的速度。

在两代人、最多三代人的时间内,人类就可以适应几乎任何程度的就业市场变化。

也许会有人不愿意、不喜欢改变自己的工作,但工作的性质是会变化的。

对一个狩猎采集的原始部落里的人来说,在电脑前敲敲字也不可能是真正的工作。

「工作仅仅是人类试图用一些愚蠢的地位游戏来娱乐自己。」Altman 说道。

真正的挑战是应对就业市场革新的过渡。

社会需要采取行动来确保人们在这个过渡中不会受到伤害,仅仅提供普遍基本收入是不够的,人们需要拥有主动权和影响力,参与对未来的建设。

这也是 OpenAI 为什么如此坚决地推广 ChatGPT 的原因。

虽然不是每个人都能够使用人工智能技术,但随着越来越多人的参与,人们将有机会思考并划定未来发展的方向。

这是我们最应重视的事。

参考资料:

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论