1 月 29 日消息,谷歌、Facebook 和微软帮助构建了人工智能的框架,但规模较小的初创公司正在将其推向大众,这迫使科技巨头们加快 AI 开发速度。据消息人士透露,由于围绕 ChatGPT 的关注激增,Meta 和谷歌内部压力也在增大,甚至可能为了行动更快而撇开某些潜在的安全担忧。
早在 AI 研究公司 OpenAI 于 2011 年 11 月份首次推出 AI 聊天机器人 ChatGPT 三个月前,Facebook 母公司 Meta 就曾发布过类似的聊天机器人。但 Meta 首席人工智能科学家雅恩・勒昆(Yann LeCun)表示,与 ChatGPT 立即爆火、上线五天里就有 100 多万用户不同,Meta 的 Blenderbot 让人觉得很无聊。
ChatGPT 正在迅速成为主流,因为微软正在努力将其纳入其流行的办公软件中,并向其他企业出售该工具的使用权限。微软最近向 ChatGPT 开发公司 OpenAI 公司投资了数十亿美元。根据对六名离职和在职谷歌、Meta 员工的采访,对 ChatGPT 的关注激增正在促使包括这两家公司在内的科技巨头内部压力激增,迫使他们更快地采取行动,可能会搁置对某些潜在安全问题的担忧。
其中一人表示,在 Meta,员工最近分享了内部备忘录,敦促公司加快 AI 项目的审批流程,以便利用最新技术。而谷歌本身就帮助开创了支撑 ChatGPT 的部分技术,该公司最近发布了围绕推出 AI 产品的“红色代码”,并提出了所谓的“绿色车道”,以缩短评估和减轻 AI 潜在危害的过程。
ChatGPT 以及 Dall-E 2、Stable Diffusion 等文本转图像等工具,都属于所谓的生成性人工智能(AIGC)。它们通过借鉴现有的、人类创造的内容来确定某些模式,以此来创作自己的作品。这项技术是由谷歌等大型科技公司首创的,但它们近年来变得更加保守,只发布新的模型或演示版本,而对整个产品保密。与此同时,像 OpenAI 这样的研究实验室迅速发布了他们的最新版本,这引发了人们对谷歌语言模型 Lamda 等企业产品的质疑。
自从像微软 AI 聊天机器人 Tay 等失败以来,科技巨头们始终都感觉很紧张。2016 年发布仅仅不到一天,Tay 就发布种族歧视等不当言论,导致微软立即将其关闭。Meta 为 Blenderbot 进行了辩护,并在其发表种族歧视言论后放弃了它。去年 11 月,另一款名为 Galactica 的 AI 工具因其不够准确、有时存在偏见而受到批评,也在短短三天后被下线。
谷歌 AI 部门的一名员工表示:“人们觉得 OpenAI 的技术比这些老牌公司更新、更令人兴奋,而且犯下的错误更少,他们现在可以逃脱诸多指责。”他指的是公众愿意在不那么严格的情况下接受 ChatGPT。有些 AI 领域的顶尖人才已经跳槽到机制更灵活的初创公司,比如 OpenAI 和 Stable Diffusion 等。
有些 AI 伦理学家担心,在信任和安全专家能够研究这些风险之前,大型科技公司匆忙进入市场可能会让数十亿人面临潜在的危害,比如分享不准确的信息、生成假图像或让学生有能力在学校考试中作弊。该领域的其他人也认同 OpenAI 的理念,即向公众发布工具是评估现实世界危害的唯一途径。在减轻了某些可预测的风险后,向公众发布工具通常名义上处于“测试期”。
Meta 基础 AI 研究部门董事总经理乔尔・皮诺(Joelle Pineau)说:“AI 的发展速度快得令人难以置信,我们一直在关注这个领域,并确保我们拥有高效的审查流程,但当务之急是做出正确的决定,并发布最适合我们社区的 AI 模型和产品。”
谷歌发言人林莉莉 (Lily Lin) 表示:“我们相信,AI 是一项基础性和变革性技术,对个人、企业和社区都非常有用。我们需要考虑这些创新可能产生的更广泛的社会影响。我们继续在内部测试我们的 AI 技术,以确保它能提供帮助,并能够安全使用。”
微软通信主管弗兰克・肖(Frank Shaw)称,当微软在其产品中使用 DALE-2 等 AI 工具,并将与 OpenAI 合作时,该公司将构建额外的安全措施。他说:“微软多年来始终在致力于推动 AI 领域的发展,并公开指导如何以负责任和符合道德的方式在我们的平台上创建并使用这些技术。”
美国佐治亚理工学院计算机教授、机器学习专家马克・里德尔(Mark Riedl)表示,ChatGPT 背后的技术不一定比谷歌和 Meta 开发的技术更好,但其发布语言模型供公众使用的做法给了它巨大优势。里德尔说:“在过去的两年里,他们始终在利用一群人类向 GPT 提供反馈,比如对不合适或不满意的答案给予‘否定’,这个过程被称为“从人类反馈中强化学习”。
在科技股暴跌之际,硅谷突然愿意考虑承担更多的声誉损失风险。当谷歌上周裁员 1.2 万人时,其首席执行官桑达尔・皮查伊(Sundar Pichai)写道,该公司已经进行了严格的审查,将重点放在最优先事项上,并两次提到了其对 AI 的早期投资。
十年前,谷歌成为 AI 领域无可争辩的领导者。2014 年,谷歌收购了尖端 AI 实验室 DeepMind,并于 2015 年开源了其机器学习软件 TensorFlow。到 2016 年,皮查伊承诺将谷歌转变为一家“AI 优先”的公司。次年,谷歌发布了转换器,这是其软件架构的关键部分,掀起了当前的生成式 AI 浪潮。
谷歌不断推出更先进的技术,推动整个领域向前发展,在语言理解方面取得了许多突破,帮助改进了谷歌搜索。在大型科技公司内部,审查尖端 AI 道德影响的制衡体系没有确保隐私或数据安全那么成熟。通常,由 AI 研究人员和工程师组成的团队会就他们的发现发表论文,将他们的技术整合到公司现有的基础设施中,或者开发新产品,这一过程有时可能会与其他负责 AI 开发的团队产生冲突,因为他们面临着将创新更快推向公众的压力。
谷歌在 2018 年发布了其著名的 AI 原则,此前员工曾抗议 Project Maven(为美国国防部无人机提供计算机视觉的合同),消费者对 Duplex(可以呼叫餐厅并进行订餐的 AI 系统)的演示也表示强烈反对。去年 8 月,谷歌开始通过其应用程序 AI Test Kitchen 向消费者提供限量版 LaMDA。前谷歌软件工程师布莱克・莱莫因(Blake Lemoine)声称,他相信 LaMDA 存在感知能力,但该功能还没有完全向公众发布,谷歌计划在 2022 年底这样做。
但这些技术进步背后的顶尖 AI 人才却正变得焦躁不安。在过去 1 年左右的时间里,谷歌许多顶级 AI 研究人员离职,成立了围绕大型语言模型的初创公司,包括 Character.AI、Cohere、Adept、Inflection.AI 以及 Inworld AI 等。此外,还有使用类似模型开发聊天界面的搜索初创公司,例如由谷歌前高管斯里达尔・拉马斯瓦米(Sridhar Ramaswamy)运营的 Neeva。
Character.AI 创始人诺姆・沙泽(Noam Shazeer)帮助发明了转换器和其他核心机器学习架构。他表示,用户数据的飞轮效应是无价的。当他首次将用户反馈应用于 Character.AI 时,参与度上升了 30% 以上。Character.AI 允许任何人根据对真人或虚构人物的简短描述来生成聊天机器人。
在 Google Brain 工作了三年的尼克・弗罗斯特(Nick Frosst)说,像谷歌和微软这样的大公司通常都专注于利用 AI 来改进他们庞大的现有商业模式。弗罗斯特在多伦多与人联合创立了 Cohere,这是一家创建大型语言模型的初创公司,可以定制这些模型来帮助企业。他的创业伙伴艾丹・戈麦斯(Aidan Gomez)在谷歌工作时也帮助开发了转换器。弗罗斯特说:“这个领域发展得如此之快,对我来说,领先的都是小公司并不令人感到惊讶。”
在过去的十年里,AI 领域经历了几次炒作周期,但对 Dall-E 和 ChatGPT 的狂热达到了新的高度。在 OpenAI 发布 ChatGPT 后不久,推特上的科技网红开始预测,AIGC 将预示着谷歌搜索的衰亡。ChatGPT 以一种可访问的方式提供简单的答案,并且不要求用户在蓝色链接中搜索。此外,在发布 25 年之后,谷歌的搜索界面变得臃肿起来,充斥着试图利用该系统的广告和营销人员。
技术专家 Can Duruk 在他的时事通讯《Margins》上写道:“由于他们的垄断地位,谷歌已经让他们曾经令人难以置信的搜索体验退化成了垃圾邮件泛滥、搜索引擎驱动的地狱。”
在匿名应用 Blind 上,科技工作者发布了数十个关于谷歌能否与 ChatGPT 竞争的问题。著名研究科学家 David Ha 在推特上写道:“如果谷歌不采取行动,开始发布类似应用,他们将被载入史册:它培养了整整一代机器学习研究人员和工程师,而这些研究人员和工程师后来又在其他公司部署了这项技术。”最近,David Ha 离开 Google Brain,加盟开源文本转图像的初创公司 Stable Diffusion。
谷歌的员工们表示,仍留在公司内部的 AI 工程师和他一样沮丧。多年来,员工们始终在发送备忘录,表示要在搜索中加入 AI 聊天功能。但他们也明白,谷歌有合理的理由不急于改变其搜索产品。如果聊天机器人直接通过谷歌搜索回答问题,如果该答案被发现是有害的或抄袭的,则可能会增加它的责任。
像 OpenAI 这样的聊天机器人经常犯事实性错误,并经常根据问题的提问方式改变答案。一位前谷歌 AI 研究员表示,从提供一系列直接链接到原始材料的问题的答案,转向使用聊天机器人给出单一、权威的答案,将是一个重大转变,让谷歌内部的许多人感到紧张。这位知情人士说,谷歌不想承担这种提供单一答案的角色或责任。之前的搜索更新,比如添加即时答案,都是非常缓慢而谨慎进行的。
然而,在谷歌内部,对 AI 安全流程的部分失望来自一种感觉,即由于担心负面宣传,尖端技术从未作为产品发布。比方说,有些 AI 模型存在偏见。
据一位了解公司内部讨论情况的人士透露,Meta 员工还不得不应对公司对糟糕公关的担忧。在推出新产品或发表研究成果之前,Meta 员工必须回答有关宣传其工作的潜在风险问题,包括其研究如何可能被误解。有些项目由公关人员以及内部合规专家进行审查,这些专家确保该公司的产品符合 2011 年联邦贸易委员会关于如何处理用户数据的协议。
对于非营利组织“分布式 AI 研究所”(Distributed AI Research Institute)的执行董事蒂姆尼特・格布鲁(Timnit Gebru)来说,谷歌将其负责任 AI 团队边缘化的前景并不一定意味着权力或安全担忧的转移,因为那些警告潜在危害的人从一开始就没有得到授权。
从格布鲁的角度来看,谷歌发布 AI 工具的速度很慢,因为该公司缺乏足够强大的商业动机,不愿冒着声誉受损的风险。然而,在 ChatGPT 发布后,谷歌可能会看到其从这些消费产品中赚钱的能力发生了变化,而不仅仅是为搜索或在线广告提供动力。格布鲁称:“现在他们可能认为这对他们的核心业务构成了威胁,所以或许他们应该冒险一试。”
拉姆曼・乔杜里(Rumman Chowdhury)曾领导推特的机器学习伦理团队,直到去年 11 月埃隆・马斯克(Elon Musk)解散了该团队。她表示,她预计谷歌等公司在争先恐后地追赶 OpenAI 的过程中,将越来越多地将内部批评者和伦理学家排挤在外。她说:“我们原来以为是中国在推动美国 AI 技术进步,但现在看起来像是初创企业在背后发力。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。