LLaMA 模型惨遭泄漏,Meta 版 ChatGPT 被迫「开源」,GitHub 斩获 8k 星,评测大量出炉

模型开源,但不够体面?现在,网友会帮你体面……

ChatGPT 角逐之战愈演愈烈。

前几周,Meta 发布了自家的大型语言模型 LLaMA,参数量从 70 亿到 650 亿不等。

论文中,仅用 1/10 参数的 LLaMA(130 亿)在大多数基准测试下超越了 GPT-3。

对于 650 亿参数的 LLaMA,则与 DeepMind 的 Chinchilla(700 亿参数)和谷歌的 PaLM(5400 亿参数)旗鼓相当。

虽然 Meta 声称 LLaMA 是开源的,但还需要研究人员申请并进行审核。

然而万万没想到的是,刚发布没几天,LLaMA 的模型文件就提前泄露了。

那么,问题来了,这究竟是故意的还是不小心的

LLaMA 惨遭「开源」?

近日,国外论坛 4chan 上泄露了 LLaMA 的成品库。

上周四,用户 llamanon 在 4chan 的技术板上发帖,通过种子文件(torrent)发布 7B 和 65B 的 LLaMA 模型。

这个种子链接目前被合并到了 LLaMA 的 GitHub 页面。

他还向项目提交了第二个拉请求,该请求提供了一个种子链接,链接到模型的另一组权重。

目前该项目在 GitHub 已收获 8k 星。

然而,泄密者最大的错误之一就是在泄密的模型中包含了他们的唯一标识符代码。

这个代码是专门用来追踪泄密者的,使用户 llamanon 的个人信息处于危险之中。

正所谓,LLaMA 开源的不太体面,网友帮它体面了。

此外,4chan 上的用户还为那些希望在自己的工作站上部署该模型的人创建了一个方便的资源。

并提供了一个分布教程的指南,说明如何获得模型,并将修改后的权重添加到其中,以便进行更有效的推理。

更重要的是,这个资源甚至提供了一种将 LLaMA 集成到 在线写作平台 KoboldAI 的方法。

对于这件事究竟是 Meta 有意为之,还是无意泄漏。网友们纷纷发表了自己的看法。

一位网友分析地头头是道,「也许这是 Meta 故意泄露的,以对抗 OpenAI。」

一些客户认为这是一个更好的模型,它恰好击中了他们以每年 25 万美元的价格出售访问权的商业计划的核心。访问他们的服务一个月可以购买一台能够运行这种泄露模型的机器。Meta 削弱了一个潜在的新贵竞争对手,以保持当前的大型科技卡特尔稳定。也许这有点阴谋论,但我们生活在大科技和大阴谋的时代。

周一,Meta 称,尽管 LLaMA 已经泄露给未经授权的用户,仍将继续向认可的研究人员发布其人工智能工具。

有网友直接称,自己下载了 70 亿参数的 LLaMA,尽管不知道如何运行,万一以后用上就能拿来了。

LLaMA 的泄露和开源是一个大事件:

Stable Diffusion 开源了。8 个月后,我们现在就可以读懂别人的思想,解码他们看到的一切。

随着 LLMs 的开放,我们将得到一些真正的疯狂的东西。

模型初步评测

LLaMA 发布不久后,网友发现这个最小参数的模型也需要近 30GB 的 GPU 才能运行。

然而,通过比特和字节库进行浮点优化,他们能够让模型在单个 NVIDIA RTX 3060 上运行。

此外,GitHub 上的一名研究人员甚至能够在 Ryzen 7900X CPU 上运行 LLM 的 7B 版本,每秒能推断出几个单词。

那么 LLaMA 模型究竟怎样?国外小哥便对它进行了评测。

LLaMA 在很多测试中表现出色。

在大规模多任务语言理解方面,即使相对较小的 13B 模型也与 GPT-3 水平相当,而 GPT-3 的规模是其 13 倍。

33B 版本远远优于 GPT-3,65B 则可与现有最强大的 LLM 模型--谷歌的 540B 参数的 PaLM 竞争。

对于需要应用逻辑或计算进行处理的文本方面,LLaMA 表现优秀,在定量推理方面可与 PaLM 相较,甚至比后者的代码生成能力更好。

鉴于这些结果,LLaMA 似乎是目前最先进的模型之一,而且,它足够小,不需要多少资源就能运行。这使得 LLaMA 对于人们来说充满诱惑,想让人和它玩玩,见识一下它的本领。

解释笑话

PaLM 原始论文中展示了一个非常酷的用例:给定一个笑话,让模型解释它为什么好笑。这个任务需要把尝试和逻辑结合起来,PaLM 之前的所有模型都无法做到这一点。

将其中一些笑话交给 LLaMA 和 ChatGPT 来解释,有些笑话语言模型能 get 到,比如 Schimidhuber 冗长无聊的发言。

但总体上 LLaMA 和 ChatGPT 都没什么幽默感。

不过两者应对听不懂的笑话的策略不同,ChatGPT 会产生「一堵文本墙」,希望其中至少有一些语句是正确答案,这种行为就像是不知道答案的学生,希望老师能从他们的一通乱说里找出答案。

零样本归类

这是一种很实用的功能,使得人们可以用 LLM 代替评分员来生成训练集,然后在这些训练集上训练较小的可服务的模型。

一个更有挑战性的任务是点击广告分类,由于连人类都不能就什么是点击广告达成一致,在提示中会向模型提供一些例子,所以事实上这是一个少样本而非零样本归类。下面是 LLaMA 的提示。

测试中只有 LLaMA-33B 会设法遵循所要求格式给出答案,而且其预测是合理的,ChatGPT 表现次之,能给出比较合理的答案,但时常不按规定的格式回答,较小的 7B、13B 模型则不太适合完成这项任务。

代码生成

虽然法 LLM 在人文方面表现出色,但不擅长 STEM 科目,那么 LLaMA 在这方面的表现如何呢?

在提示中,给出搜索表的形式和希望达到的目的,要求模型给提供 SQL 查询语句。

ChatGPT 在这项任务中表现更好一点,但语言模型给出的结果总体都不太靠谱。

在与 ChatGPT 对比进行的各项测试中,LLaMA 并没有如想象中一样大获全胜。当然如果其间差距只是由 RLHF(带有人类反馈的强化学习)造成的,那小型模型的未来可能会更光明。

参考资料:

  • https://www.reddit.com/r/MachineLearning/comments/11h3p2x/d_facebooks_llama_leaks_via_torrent_file_in_p

  • https://medium.com/@enryu9000/mini-post-first-look-at-llama-4403517d41a1

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享