OpenAI 开放 GPT-3 微调功能:一行命令就能实现,正确率最高提升 4 倍

2021-12-15 14:47量子位 - 明敏

刚刚 OpenAI 宣布,允许用户创建自定义版的 GPT-3。而且步骤非常简单,只需一行命令就能实现

经过微调(fine-tuned),定制版的 GPT-3 在不同应用中的提升非常明显。

OpenAI 表示,它可以让不同应用的准确度能直接从 83% 提升到 95%、错误率可降低 50%。解小学数学题目的正确率也能提高 2-4 倍。

这样一来,踩在巨人的肩膀上、直接在 1750 亿参数的大模型上微调,不少研发人员都可以不用再重头训练自己的 AI 模型了。

这让网友们大呼:

现在我能直接训练我的聊天机器人了,这可节省太多时间和费用了!

加之前不久 OpenAI 才取消 GPT-3 接口的等待机制,让所有满足条件的开发人员都可快速申请使用它。

显然,在把 GPT-3 开放给更多人用这件事上,OpenAI 真的是不遗余力。

微调好处多

微调好处多,这一点 OpenAI 早有证明。

今年 6 月,他们就曾只用 80 个文本的数据集进行训练,让 GPT-3 说话的危险性大幅降低,而且表达也更有人情味。

(下图中蓝线表示训练后模型,红线表示基础模型,分数越高意味着表现越好)

事实上,已经有不少应用已经用上了定制版的 GPT-3,并且表现都不错。

比如这个税收应用 ——Keeper Tax。

它能通过定制版的 GPT-3 来识别账单上的各种数据,以帮助用户找到可以免税的费用。

Keeper Tax 表示,在用上微调后的 GPT-3 后,应用识别的准确率每周都会提高约 1%,准确率已经从过去的 85% 提升到了 93%。

再来看这个人工智能检索工具 ——Elicit。

它可以根据用户搜索的问题来智能给出结果。

在用上定制版 GPT-3 后,Elicit 给出的结果在易懂性上提高了 24%、准确性上提高了 17%、整体方面则提升了 33%。

还有这个可智能读取用户评论的应用 ——Viable。

它能够从大量评论中读取用户的重要建议,比如投诉、疑问等。

定制化 GPT-3 使该应用在识别用户反馈的准确率上从 66% 提升到了 90%。

事实上,不只是准确率上的提升。

在输出结果的用时、多样性上,定制化 GPT-3 都有着更明显的优势。

如何食用?

OpenAI 表示,想要微调 GPT-3 大致需要 3 个步骤:

准备和上传训练数据;训练微调模型;最后使用。

其中,训练数据必须是 JSONL 文档,这一步是让 GPT-3 在哪方面表现突出的关键。

创建微调模型是在 OpenAI CLI 上进行,步骤也很简单,只需上传数据文件、创建微调作业、再等待几分钟或几小时等待作业完成。

最后,使用微调模型时,只需将命令行中 fine_tuned_model 字段换成模型名称即可。

具体步骤 OpenAI 已在官方网页上给出,可参看文末链接 2。

当然,想要用更加强大的 GPT-3,所需费用也会有些提升。

微调后模型每 1K token 的费用,将比基础版高出 50%。

OpenAI 技术人员在采访时表示:“我们开发此功能时,希望能够让没有 AI 研究背景的人也能使用它。

不少网友也纷纷留言表示,自己用 GPT-3 写出了很多有意思的应用。

比如有人就写了一个睡眠播客,可以讲童话故事的那种:

参考链接:
[1]https://openai.com/blog/customized-gpt3/
[2]https://beta.openai.com/docs/guides/fine-tuning
[3]https://news.ycombinator.com/item?id=29554116

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享