今年高考英语 AI 得分 134,复旦武大校友这项研究有点意思

在挑战写语文作文后,AI 现在又盯上了高考英语。

结果好家伙,今年高考英语卷(全国甲卷)一上手,就拿了 134 分。

而且不是偶然的超常发挥。

在 2018-2021 年的 10 套真题测试中,AI 的分数都在 125 分以上,最高纪录为 138.5 分,听力和阅读理解还拿过满分。

这就是由 CMU 学者提出的,高考英语测试 AI 系统 Qin

它的参数量只有 GPT-3 的 16 分之一,平均成绩却比 GPT-3 高出 15 分

其背后的秘诀名叫重构预训练 (reStructured Pre-training),是作者提出的一种新学习范式。

具体来看,就是把维基百科、YouTube 等平台的信息重新提取重构,再喂给 AI 进行训练,由此让 AI 具有更强的泛化能力。

两位学者用足足 100 多页的论文,深入解释了这一新范式。

那么,这一范式到底讲了什么?

我们来深扒一下~

什么是重构预训练?

论文题目很简单,就叫 reStructured Pre-training(重构预训练,RST)。

核心观点凝练来说就是一句话,要重视数据啊!

作者认为,这个世界上有价值的信息无处不在,而目前的 AI 系统并没有充分利用数据中的信息。

比如像维基百科,Github,里面包含了各种可以供模型学习的信号:实体,关系,文本摘要,文本主题等。这些信号之前由于技术瓶颈都没有被考虑。

所以,作者在本文中提出了一种方法,可以用神经网络统一地存储和访问包含各种类型信息的数据

他们以信号为单位、结构化地表示数据,这很类似于数据科学里我们常常将数据构造成表或 JSON 格式,然后通过专门的语言(如 SQL)来检索所需的信息。

具体来看,这里的信号,其实就是指数据中的有用信息。

比如在“莫扎特生于萨尔茨堡”这句话中,“莫扎特”、“萨尔茨堡”就是信号

然后,就需要在各种平台上挖掘数据、提取信号,作者把这个过程比作了从矿山里寻宝。

接下来,利用 prompt 方法,就能将这些来自不同地方的信号统一成一种形式。

最后,再将这些重组的数据集成并存储到语言模型中

这样一来,该研究就能从 10 个数据源中,统一 26 种不同类型的信号,让模型获得很强的泛化能力。

结果表明,在多个数据集中,RST-T、RST-A 零样本学习的表现,都优于 GPT-3 的少样本学习性能

而为了更进一步测试新方法的表现,作者还想到了让 AI 做高考题的方法

他们表示,现在很多工作方法走的都是汉化 GPT-3 的思路,在评估的应用场景上也是跟随 OpenAI、DeepMind。

比如 GLUE 测评基准、蛋白质折叠评分等。

基于对当下 AI 模型发展的观察,作者认为可以开辟出一条新的赛道试试,所以就想到了用高考给 AI 练练手。

他们找来了前后几年共 10 套试卷进行标注,请高中老师来进行打分。

像听力 / 识图理解这样的题目,还找来机器视觉、语音识别领域的学者帮忙。

最终,炼出了这套高考英语 AI 模型,也可以叫她为 Qin

从测试结果可以看到,Qin 绝对是学霸级别了,10 套卷子成绩都高于 T0pp 和 GPT-3

此外,作者还提出了高考 benchmark。

他们觉得当下很多评价基准的任务都很单一,大多没有实用价值,和人类情况对比也比较困难。

而高考题目既涵盖了各种各样的知识点,还直接有人类分数来做比对,可以说是一箭双雕了。

NLP 的第五范式?

如果从更深层次来看,作者认为,重构预训练或许会成为 NLP 的一种新范式,即把预训练 / 微调过程视为数据存储 / 访问过程。

此前,作者将 NLP 的发展总结成了 4 种范式:

  • P1. 非神经网络时代的完全监督学习 (Fully Supervised Learning, Non-Neural Network)

  • P2. 基于神经网络的完全监督学习 (Fully Supervised Learning, Neural Network)

  • P3. 预训练,精调范式 (Pre-train, Fine-tune)

  • P4. 预训练,提示,预测范式(Pre-train, Prompt, Predict)

但是基于当下对 NLP 发展的观察,他们认为或许之后可以以一种 data-centric 的方式来看待问题。

也就是,预训 / 精调、few-shot / zero-shot 等概念的差异化会更加模糊,核心只关注一个点 ——

有价值的信息有多少、能利用多少

此外,他们还提出了一个 NLP 进化假说。

其中的核心思想是,技术发展方向总是顺着这样的 —— 做更少的事实现更好、更通用的系统。

作者认为,NLP 经历了特征工程、架构工程、目标工程、提示工程,当下正在朝着数据工程方向发展。

复旦武大校友打造

本篇论文的一作为 Weizhe Yuan。

她本科毕业于武汉大学,后赴卡内基梅隆大学读研,学习数据科学专业。

研究方向集中在 NLP 任务的文本生成和评估。

去年,她被 AAAI 2022、NeurIPS 2021 分别接收了一篇论文,还获得了 ACL 2021 Best Demo Paper Award。

论文的通讯作者为卡内基梅隆大学语言技术研究所(LTI)的博士后研究员刘鹏飞。

他于 2019 年在复旦大学计算机系获得博士学位,师从邱锡鹏教授、黄萱菁教授。

研究兴趣包括 NLP 模型可解释性、迁移学习、任务学习等。

博士期间,他包揽了各种计算机领域的奖学金,包括 IBM 博士奖学金、微软学者奖学金、腾讯人工智能奖学金、百度奖学金。

One More Thing

值得一提的是,刘鹏飞在和我们介绍这项工作时,直言“最初我们就没打算拿去投稿”。

这是因为他们不想让会议论文的格式限制了构思论文的想象力

我们决定把这篇论文当作一个故事来讲,并给“读者”一种看电影的体验。

这也是为什么我们在第三页,设置了一个“观影模式“的全景图。

就是为了带着大家去了解 NLP 发展的历史,以及我们所展望的未来是怎样的,让每一个研究者都能有一定的代入感,感受到自己去带领着预训练语言模型们 (PLMs) 通过矿山寻宝走向更好明天的一个过程。

论文结尾,还藏了一些惊喜彩蛋。

比如 PLMs 主题表情包:

还有结尾的插画:

这么看,100 多页的论文读起来也不会累了~

论文地址:

https://arxiv.org/abs/2206.11147

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享