ChatGPT 的出现,彻底将生成 AI 推向爆发。
但别忘了,AI 生成模型可不止 ChatGPT 一个,光是基于文本输入的就有 7 种 ——
图像、视频、代码、3D 模型、音频、文本、科学知识……
尤其 2022 年,效果好的 AI 生成模型层出不穷,又以 OpenAI、Meta、DeepMind 和谷歌等为核心,发了不少达到 SOTA 的模型。
这不,立刻有学者写了篇论文,对 2022 年新出现的主流生成模型进行了年终盘点。
一起来看看这两年间,各领域的 AI 生成模型进展究竟怎么样了。
这篇论文将 AI 生成模型分成了 9 大类。
下图是 2022 年前后,在生成效果上达到最优的模型总览:
除了谷歌 LaMDA 和 Muse 以外,所有模型均为 2022 年发布。
其中,谷歌 LaMDA 虽然是 2021 年发布的,但在 2022 年又爆火了一波;Muse 则是 2023 年刚发布的,但论文声称自己在图像生成性能上达到 SOTA,因此也统计了进去。
这方面的代表作有 DALL-E2、Stable Diffusion、Imagen、Muse。
DALL·E2是来自 OpenAI 的生成模型,在零样本学习上做出大突破。与 DALL・E 一样,两点依旧是 CLIP 模型,除了训练数据庞大,CLIP 基于 Transformer 对图像块建模,并采用对比学习训练,最终帮助 DALL・E2 取得了不错的生成效果。
下图是 DALL・E2 根据“一只戴着贝雷帽、穿黑色高领毛衣的柴犬”生成的图像:
Imagen来自谷歌,基于 Transformer 模型搭建,其中语言模型在纯文本数据集上进行了预训练。Imagen 增加了语言模型参数量,发现效果比提升扩散模型参数量更好。
下图是 Imagen 根据“一只可爱的柯基住在寿司做的房子里”生成的图像:
Stable Diffusion由慕尼黑大学的 CompVis 小组开发,基于潜在扩散模型打造,这个扩散模型可以通过在潜表示空间中迭代去噪以生成图像,并将结果解码成完整图像。
Muse由谷歌开发,基于 Transformer 模型取得了比扩散模型更好的结果,只有 900M 参数,但在推理时间上比 Stable Diffusion1.4 版本快 3 倍,比 Imagen-3B 和 Parti-3B 快 10 倍。
下图是 Muse 与 DALL・E2 和 Imagen 的生成效果对比:
主要代表作有 Dreamfusion、Magic3D。(这里没有把 OpenAI 的 Point・E 统计进去,可能是生成效果上没有达到 SOTA)
DreamFusion由谷歌和 UC 伯克利开发,基于预训练文本-2D 图像扩散模型实现文本生成 3D 模型。采用类似 NeRF 的三维场景参数化定义映射,无需任何 3D 数据或修改扩散模型,就能实现文本生成 3D 图像的效果。
下图是 DreamFusion 生成“穿夹克的松鼠”3D 效果:
Magic3D由英伟达开发,旨在缩短 DreamFusion 图像生成时间、同时提升生成质量。具体来说,Magic3D 可以在 40 分钟内创建高质量 3D 网格模型,比 DreamFusion 快 2 倍,同时实现了更高分辨率,并在人类评估中以 61.7% 的比率超过 DreamFusion。
主要代表作有 Flamingo、VisualGPT。
Flamingo是 DeepMind 推出的小样本学习模型,基于可以分析视觉场景的视觉模型和执行基本推理的大语言模型打造,其中大语言模型基于文本数据集训练。输入带有图像或视频的问题后,模型会自动输出一段文本作为回答。
VisualGPT是 OpenAI 制作的图像-文本模型,基于预训练 GPT-2 提出了一种新的注意力机制,来衔接不同模态之间的语义差异,无需大量图像-文本数据训练,就能提升文本生成效率。
主要代表作有 Phenaki、Soundify。
Phenaki由谷歌打造,基于新的编解码器架构 C-ViViT 将视频压缩为离散嵌入,能够在时空两个维度上压缩视频,在时间上保持自回归的同时,还能自回归生成任意长度的视频。
Soundify是 Runway 开发的一个系统,目的是将声音效果与视频进行匹配,即制作音效。具体包括分类、同步和混合三个模块,首先模型通过对声音进行分类,将效果与视频匹配,随后将效果与每一帧进行比较,插入对应的音效。
主要代表作有 AudioLM、Jukebox、Whisper。
AudioLM由谷歌开发,将输入音频映射到一系列离散标记中,并将音频生成转换成语言建模任务,学会基于提示词产生自然连贯的音色。在人类评估中,认为它是人类语音的占 51.2%、与合成语音比率接近,说明合成效果接近真人。
Jukebox由 OpenAI 开发的音乐模型,可生成带有唱词的音乐。通过分层 VQ-VAE 体系将音频压缩到离散空间中,损失函数被设计为保留最大量信息,用于解决 AI 难以学习音频中的高级特征的问题。不过目前模型仍然局限于英语。
Whisper由 OpenAI 开发,实现了多语言语音识别、翻译和语言识别,目前模型已经开源并可以用 pip 安装。模型基于 68 万小时标记音频数据训练,包括录音、扬声器、语音音频等,确保由人而非 AI 生成。
主要代表作有 ChatGPT、LaMDA、PPER、Speech From Brain。
ChatGPT由 OpenAI 生成,是一个对话生成 AI,懂得回答问题、拒绝不正当的问题请求并质疑不正确的问题前提,基于 Transformer 打造。它用人类打造的对话数据集、以及 InstructGPT 数据集的对话格式进行训练,此外也可以生成代码和进行简单数学运算。
LaMDA基于 Transformer 打造,利用了其在文本中呈现的长程依赖关系能力。其具有 1370 亿参数,在 1.56T 的公共对话数据集和网页文本上进行训练,只有 0.001% 的训练数据被用于微调,这也是它效果好的原因之一。
PEER由 Meta AI 打造,基于维基百科编辑历史进行训练,直到模型掌握完整的写作流程。具体来说,模型允许将写作任务分解成更多子任务,并允许人类随时干预,引导模型写出人类想要的作品。
Speech from Brain由 Meta AI 打造,用于帮助无法通过语音、打字或手势进行交流的人,通过对比学习训练 wave2vec 2.0 自监督模型,基于非侵入式脑机接口发出的脑电波进行解读,并解码大脑生成的内容,从而合成对应语音。
主要代表作有 Codex、AlphaCode。
Codex是 OpenAI 打造的编程模型,基于 GPT-3 微调,可以基于文本需求生成代码。首先模型会将问题分解成更简单的编程问题,随后从现有代码(包含库、API 等)中找到对应的解决方案,基于 GitHub 数据进行训练。
AlphaCode由 DeepMind 打造,基于 Transformer 模型打造,通过采用 GitHub 中 715.1GB 的代码进行预训练,并从 Codeforces 中引入一个数据集进行微调,随后基于 Codecontests 数据集进行模型验证,并进一步改善了模型输出性能。
主要代表作有 Galactica、Minerva。
Galatica是 Meta AI 推出的 1200 亿参数论文写作辅助模型,又被称之为“写论文的 Copilot 模型”,目的是帮助人们快速总结并从新增论文中得到新结论,在包括生成文本、数学公式、代码、化学式和蛋白质序列等任务上取得了不错的效果,然而一度因为内容生成不可靠被迫下架。
Minerva由谷歌开发,目的是通过逐步推理解决数学定量问题,可以主动生成相关公式、常数和涉及数值计算的解决方案,也能生成 LaTeX、MathJax 等公式,而不需要借助计算器来得到最终数学答案。
主要包括 Alphatensor、GATO、PhysDiff 等“其他生成模型”。
AlphaTensor由 DeepMind 开发,懂得自己改进矩阵乘法并提升计算速度,不仅改进了目前最优的 4×4 矩阵解法,也提升了 70 多种不同大小矩阵的计算速度,基于“棋类 AI”AlphaZero 打造,其中棋盘代表要解决的乘法问题,下棋步骤代表解决问题的步骤。
GATO由 DeepMind 开发,基于强化学习教会大模型完成 600 多个不同的任务,包含离散控制如 Atari 小游戏、推箱子游戏,以及连续控制如机器人、机械臂,还有 NLP 对话和视觉生成等,进一步加速了通用人工智能的进度。
PhysDiff是英伟达推出的人体运动生成扩散模型,进一步解决了 AI 人体生成中漂浮、脚滑或穿模等问题,教会 AI 模仿使用物理模拟器生成的运行模型,并在大规模人体运动数据集上达到了最先进的效果。
两位作者均来自西班牙卡米亚斯大主教大学(Universidad Pontificia Comillas)。
一作 Roberto Gozalo-Brizuela,目前是卡米亚斯大主教大学研究助理(Investigador asociado),从事 AI 相关的项目研究工作。
Eduardo C. Garrido-Merchán,卡米亚斯大主教大学助理教授,研究方向是贝叶斯优化、机器学习、强化学习、生成式 AI 等。
你感觉哪个领域的生成式 AI 进展最大?
论文地址:
https://arxiv.org/abs/2301.04655
参考链接:
https://twitter.com/1littlecoder/status/1615352215090384899
本文来自微信公众号:量子位 (ID:QbitAI),作者:萧箫
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。