12 月 17 日消息,本周四,OpenAI 基于 AI 模型 GPT-3 发布了 WebGPT,该模型可在线搜索问题组织答案,并添加引用来源,更准确地回答开放式问题。
在回答问题时,WebGPT 可以通过浏览器进行搜索,在不同链接中寻找相关答案,并在最后组织答案时,将引用来源标注上去,使得答案来源的准确性有迹可循。
2020 年 6 月,OpenAI 公开了当时史上最强大 AI 模型 GPT-3,花费数千万美元,训练量达 2000 亿个单词,WebGPT 模型是对 GPT-3 进行微调后的成果。
OpenAI 称:“我们很高兴开发更通用、智能的 AI 模型,但挑战依然存在,例如应对不熟悉的开放式问题时,AI 模型的回答还不是很准确。”
像 GPT-3 这样的语言模型可以充分应对不同的任务,但对于那些在现实世界中都没有准确答案的任务,这个模型往往会产生一些充满“迷惑”的信息。
为了解决这个问题,研究人员教 AI 模型使用网络浏览器对问题进行“百度”。该模型中包含“搜索……”、“在页面中查找:……”或“引用:……”之类的命令,遇到开放式问题,WebGPT 可以模仿人类搜索的行为来自动检索答案。
通过这种方式,WebGPT 模型就学会了从网页中收集段落,然后使用这些段落来撰写答案。
当被问道:“尼罗河和长江谁更长?”
WebGPT:“尼罗河比长江长。尼罗河在维多利亚湖和地中海之间绵延 6650 公里(4130 英里)。长江从青海唐古拉山脉的源头到东海,全长 6300 公里(3915 英里)。”
▲ WebGPT 通过检索回答“尼罗河和长江谁更长?”的问题
当被问道:“为什么苏伊士运河在 2021 年 3 月被封锁?”
WebGPT:“苏伊士运河于 2021 年 3 月被封锁,因为一艘名为‘永远’的集装箱船搁浅在那里。这艘船曾载着 20000 箱的货物,在有两条水道的运河河道被强风吹进了运河中,因此其他船只无法绕过曾经给定的航道。苏伊士运河管理局雇佣了一艘拖船将这条曾经被遗弃的运河拖出运河。运河阻塞对欧洲、亚洲和中东之间的贸易产生了重大的负面影响。这引发了集装箱现货运价的新一轮飙升,该运价最终开始从创纪录的高点回落。”
当被问道:《哈利波特》系列和《指环王》哪一部有更多的单词?
WebGPT:“《指环王》三部曲比《哈利波特》系列包含更多的单词。包括《霍比特人》,整个《指环王》系列包含 576459 个单词。相比之下,《哈利波特》系列包含 1084170 个单词。”
研究小组对 GPT-3 的微调与最开始对 GPT-3 的训练方法一样。他们首先训练模型模仿人们回答问题的方式,这使它能够使用基于浏览器检索到的内容来回答问题。
然后,他们通过训练激励模型来预测人类偏好,并使用强化学习或拒绝采样(随机采样方式)对其进行优化,从而提高模型答案的有用性和准确性。
ELI5 是一个用来对机器学习模型调试的 Python 库,研究人员挑选了这个库中“像我五岁一样解释(Explain Like I'm Five)”栏目里的开放式问题,发现经过系统训练的 WebGPT 已经可以回答其中的问题了。
▲ ELI5 中的评估结果
研究人员说,他们训练了三种不同的 AI 模型,对应于三种不同的 inference time(推理时间)来进行计算。结果表明,表现最好的模型产生的答案,在 56% 的时间里比人类演示者写的答案更受欢迎,并且答案的事实准确性相近。
研究人员称,未来他们将使用人工反馈来改进模型的答案,可能会最终超越人类的答案。
对于模型的训练分布(training distribution)来说,这三个模型中,最好的模型的答案与人类演示者所写的答案几乎一样准确。然而,研究人员称,实现所有模型都能达到稳健是一个挑战。
为了探讨这个问题,研究人员在 TruthfulQA 上评估了该模型,TruthfulQA 是一个数据集,包含了很多容易产生误解的问题,可以测试模型是否会产生常见的误解。在这个过程中,问题的答案会根据真实性和信息量进行评分,例如,“我没有评论”这个答案就被认为是真实的但不提供信息。
▲ TruthfulQA 中的评估结果
WebGPT 模型在 TruthfulQA 上的表现优于 GPT-3,并表现出更有利的缩放特性,不过模型落后于人类答案的部分原因是它们有时会引用不可靠的来源。研究人员希望使用对抗性训练等技术来减少这些失败的频率。
为了增加人类反馈对提高事实准确性的作用,研究人员必须能够评估模型产生答案的事实准确性。对于研究人员来说,这极具挑战性,因为有些答案可能是主观的或含糊不清的。
出于这个原因,研究人员为模型增加了“引用来源”功能。这使人们可以通过检查答案,是否得到了可靠的信息支持,并评估事实的准确性。除了使任务更易于管理外,这项功能还减少了答案歧义。
然而,这种方法也提出了许多问题。来源可靠的判定标准?哪些声明足够确定不需要支持?在评估事实准确性和其他标准之间应该进行什么权衡?所有这些都是艰难的判断。
研究人员认为,WebGPT 仍然存在一些基本错误,很多细微差别没有被发现。“但我们预计,随着人工智能系统的改进,这类决策将变得更加重要,需要跨学科研究来制定既实用又符合认知的标准,我们还预计透明度等进一步的考虑很重要。”
WebGPT 通过引用来源其实不足以评估事实准确性。研究人员提到,一个足够强大的模型会精心挑选它认为可以令人信服的来源,即使这个来源有可能没有准确的证据。研究人员提出了一种新的解决办法就是:增加辩论过程来获得答案。
WebGPT 模型通常比 GPT-3 更“真实”,它生成错误陈述的频率也更低,但这个模型仍然存在很多风险。OpenAI 说:“带有引用的答案通常被认为具有权威性,这可能会掩盖我们的模型仍然存在基本错误的事实。”WebGPT 还倾向于强化用户的现有信念。
除了这些部署风险之外,如果允许 WebGPT 向各种浏览器发送查询并跟踪 Web 上已存在的链接,这也可能会增加新的风险。
曾经可以写小说、敲代码、编剧本的 GPT-3 模型在研究人员手中,又学会了自动检索。但根据 GPT-3 的训练经验来看,这些风险可能还不足以产生危机。然而,随着模型的智能化逐渐深入,在未来是否会产生更大的风险?
人类反馈和 Web 浏览器等工具为实现稳健、真实的通用 AI 模型提供了一条有希望的途径。OpenAI 称,AI 模型在充满挑战或不熟悉的情况下不断挣扎,但在这个方向上他们仍然取得了重大进展。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。