谷歌研究员炮轰 GPT 初创公司瞎炒作,连发 18 条推文怒怼
- 新智元
2023-01-13 19:54
面对 GPT 公司疯狂营销的乱象,谷歌研究员发长文怒怼其商业化模式:炒作救不了 GPT!但投资人表示:无所谓,好玩就行
在 AI 领域,去年的流量王者,非生成式 AI 莫属。
从 DALL-E 2 到 ChatGPT,从 Stable Diffusion 到 Midjourney,AIGC 行业呈现爆炸式的增长。
基于人工智能的生成式工具纷至沓来,让投资公司和广大公众眼花缭乱。
顶级投资公司红杉资本在一篇博文中写道:「生成式人工智能不仅变得更快、更便宜,而且在某些情况下比人类创造得更好。」「很容易想象到,几十年后,生成式人工智能将深深植根于我们的工作、创造和娱乐方式中。」
投资公司对 AIGC 的热情可以用金钱来衡量,仅 2022 一年,该领域就有 78 笔交易,预计 13.7 亿美元。
然而,尽管 AI 模型的创造者和投资者都相信他们是改变地球的力量,在该领域,并非每个人都相信这些生成机器是最好的选择。
谷歌研究员:炒作救不了 GPT
「人工智能的当前氛围与 2021 年 web3 热潮有很多相似之处,这让我感到不舒服,」对于当前的投资热潮,谷歌深度学习研究专家、深度学习系统 Keras 的创建者,François Chollet 在推特上发出了强烈警告。「人们对不讲事实的叙述信以为真。」
「每个人都坚信,未来 2-3 年内,GPT 会产生『改变文明』的影响(并带来 100 倍的投资回报率),」他继续说道。「就我个人而言,我认为 LLM 的发展存在牛市和熊市两种情况。」
他认为在牛市情况下,「生成式 AI 成为与大多数科技产品交互的广泛范例」。即使在这种情况下,通用人工智能 (AGI) 仍然是一个「白日梦」。
与此同时,在熊市情况下,像 GPT-3 这样的大型语言模型会发现「在 SEO(搜索引擎优化)、营销和文案领域的成功案例有限」,并最终证明是一个「彻彻底底的泡沫」。
Chollet 认为,LLM 最终的发展很有可能介于两者之间,并偏向后者。「人工智能作为我们信息的通用接口」是未来肯定会发生的事情,但这一代技术还无法完全做到这一点。
LLM 模型是否成功,一个重要的标准是商品化。如果 LLM 能够产生巨大的经济回报,那么这项技术的商品化就算成功。
以 OpenAI 为例,在 2021 年,该公司的利润大约为五百到一千万美元;到 2022 年,这个数字变成了三千到四千万。即使强大如 OpenAI,也只有图像生成技术的商业价值获得了市场的认可。
Chollet 称,自己喜欢在推特上搜索最热门的 ChatGPT 推文,以深入了解这一技术的相关用例。在浏览过大量推文后,Chollet 发现,80% 的帖子都在讲如何引流,更有甚者,只是骗取点击量的噱头。
不论是「付费解锁 ChatGPT 的 10 个秘密」还是各类 ChatGPT 培训班,LLM 的出现对流量变现的商业化模式带来了颠覆性的影响。
不过,Chollet 认为 ChatGPT 的实际潜力远不止于此。它可能会在消费品、教育和搜索领域大放光彩。
无论未来如何,人们很快就会知道。数十亿美元争先恐后地涌入这个赛道,将 ChatGPT 或类似技术应用到大量产品中。到今年年底,人们将有足够的数据来做出判断。
当然,Chollet 也表示,撇开炒作不谈,深度学习可以「构建很多很酷的东西」。5 年前是这样,今天是这样,5 年后仍然会是这样。哪怕褪去炒作者赋予它的光环,这项技术也非常有价值。
web3 无法和 LLM 相提并论。毕竟 web3 是纯粹的噱头,而 LLM 是具有实际应用的真正技术。Chollet 所提到的炒作,是在风险投资人群中形成的泡沫。
文章的最后,Chollet 解释了 GPT 技术是如何「营销成功」的。「投资 GPT 的驱动力不是实验数据或利润表,而是纯粹的炒作和毫无根据的叙述。他们形成了自洽的循环:炒作吸引投资,投资增加会引来更多的炒作,进而有更多的资本涌入。」
最重要的是,谎言重复一百遍就成为了常识。没有任何数据支持的「大饼」,在口口相传中变成了不证自明的圭臬。
马库斯:别太相信 GPT
对 GPT 持谨慎态度的不止 Chollet 一人,纽约大学教授马库斯也常常对世人的热情泼冷水。
在接受采访时,马库斯表示,虽然 ChatGPT 看起来无所不知,但它也很容易出错。ChatGPT 和之前一样,相关系统「仍然不可靠,仍然不了解现实世界,仍然不了解心理世界并且仍然充满错误。」
因此,尽管 AI 界对 GPT-4 的到来满心欢喜,马库斯却给出了 7 个不太积极的预测。
1. GPT-4 仍然会像它的前辈一样,犯下各种愚蠢的错误。它有时可能会很好地完成给定的任务,有时却罢工不干,但你并不能提前预料到即将出现的是哪种情况。
2. GPT-4 对物理、心理和数学方面的推理依然靠不住。它或许能够解决部分之前未能挑战成功的项目,但在面对更长和更复杂的场景时依然束手无策。
比如,当被问及医学问题时,它要么拒绝回答,要么偶尔会说出听起来很有道理但很危险的废话。尽管它已经吞噬了互联网上的大量内容,但它并不能足够可信和完整地提供可靠的医疗建议。
3. 流畅幻象(fluent hallucinations)仍将十分常见,而且很容易被诱发。也就是说,大型语言模型依然是一个能被轻易用于制作听起来很有道理但却完全错误的信息的工具。
4. GPT-4 的自然语言输出仍然无法以可靠的方式为下游程序提供服务。利用它构建虚拟助手的开发者会发现,自己无法可靠地将用户语言映射到用户的意图上。
5. GPT-4 本身不会是一个能解决任意任务的通用人工智能。如果没有外部的辅助,它既不能在 Diplomacy 中击败 Meta 的 Cicero;也不能可靠地驾驶汽车;更不能驱动《变形金刚》里的「擎天柱」,或者像《杰森一家》里的「Rosie」那样多才多艺。
6. 人类「想要什么」与机器「去做什么」之间的「对接」,依然是一个关键且尚未解决的问题。GPT-4 仍将无法控制自己的输出,一些建议是令人惊讶的糟糕,掩盖偏见的例子也会在几天或几个月内被发现。
7. 当 AGI(通用人工智能)实现时,像 GPT-4 这样的大型语言模型,或许会成为最终解决方案的一部分,但也仅限于其中的一部分。单纯的「扩展」,也就是建立更大的模型直到它吸收了整个互联网,在一定程度上会被证明是有用的。但值得信赖的、与人类价值观相一致的通用人工智能,一定会来自于结构化程度更高的系统。它将具有更多的内置知识,并包含明确的推理和计划工具。而这些,都是现在的 GPT 系统所缺乏的。
马库斯认为,在十年内,也许更少,人工智能的重点将从对大型语言模型的扩展,转向与更广泛的技术相结合。
酷炫的东西总是好玩的,但这并不意味着它能带领我们走向可信的通用人工智能。
投资者:但它很好玩诶
但即便如此,即使 AI 领域的专家苦口婆心劝导投资人「快逃」,GPT 的追随者们仍然有手中的支票,表达对技术的乐观。
就在今日,微软正在商谈向 OpenAI 投资 100 亿美元,这将带来公司市值增至近 300 亿美元。
风投公司 General Catalyst 的 Niko Bonatsos 接受采访时称:「这是我们一直在等待的范式转移。」 「或许比我们想象中来得更大。」
在投资者看来,这些算法很酷。文本-图像生成器令人印象深刻,为不懂 Photoshop 的小白打开了创意世界的大门。对他们来说,GPT 系统至少玩起来很有趣。
尽管行业 CEO 对这些项目仍处于相对初级阶段的事实持开放态度,即使该领域的未来是光明的,但目前来看,它们所呈现的破坏潜力和模糊的创意界限很难被忽视。
在 Chollet 看来,要真正形成「范式转移」,产品不仅要酷炫有趣,甚至对利基产品非常有用。
他警告说,风投们冒着比他们想象的要大得多的风险,既为半生不熟的产品的炒作周期提供燃料,又被疯狂薅羊毛。而资本并没有对这个前景广阔但仍有相当局限性的新兴市场进行审慎的预测。
「每个人都开始相信自己是被选中的人,尤其是那些自称是逆势投资者的人,」他说。
参考资料:
https://futurism.com/deep-learning-expert-gpt-startups-rude-awakening
https://twitter.com/fchollet/status/1612179805298135040
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。