【新智元导读】被 OpenAI 提前截胡的谷歌,昨天不甘示弱地开启反击!大杀器 Project Astra 效果不输 GPT-4o,文生视频模型 Veo 硬刚 Sora,用 AI 彻底颠覆谷歌搜索,Gemini 1.5 Pro 达到 200 万 token 上下文…… 谷歌轰出一连串武器,对 OpenAI 贴脸开大。
谷歌 I / O 2024 如期来了,眼花缭乱地发布了一堆更新。
跟 OpenAI 半小时的「小而美」发布会相比,谷歌显然准备得更加充分,当然,时间也相当之长……
准备好,谷歌要开始轰炸了。
首先,Gemini 1.5 Pro,上下文长度将达到惊人的 200 万 token。然后,面对昨天 OpenAI GPT-4o 的挑衅,谷歌直接甩出大杀器 Project Astra,视觉识别和语音交互效果,跟 GPT-4o 不相上下。
接着,谷歌祭出文生视频模型 Veo 硬刚 Sora,效果酷炫,时长超过 1 分钟,打破 Sora 纪录。
最后来了一个重磅消息:谷歌搜索将被 Gemini 重塑,形态从此彻底改变!我们不再需要自己点进搜索结果,而是由多步骤推理的 AI Overview 来代办一切。
发布会结束后,劈柴甚至还用 Gemini 算了一下,整个发布会共提了 121 次 AI。
CEO 劈柴上来就无视了 GPT 和 Llama 的存在,这样总结道:「我们完全处于 Gemini 时代」。并且给出数据:如今全世界使用 Gemini 的开发者,一共有 150 万人。
万众瞩目的 Gemini 更新如期而至。
Gemini 1.5 Pro 最强特性之一,就是超长的上下文窗口,达到了 100 万 tokens 的级别,超过了目前所有的大语言模型,而且开放给个人用户使用。
今天,劈柴宣布:它的上下文 token 数将会达到 2000K(200 万)!相比之下,GPT-4 Turbo 只有 128K,Claude 3 也只有 200K。
而这也意味着 —— 你可以给模型输入 2 小时视频、22 小时音频、超过 6 万行代码或者 140 多万单词。
这个上下文长度,已经超过了目前所有大模型。
但是,这并不是终点,谷歌的目标是 —— 无限长上下文,不过,这就是后话了。
在这样的 Gemini 加持下,我们可以实现许多迅捷的功能。
比如,作为父母需要了解孩子在学校的情况,就可以在 Gmail 中要求 Gemini 识别所有关于学校的电子邮件,然后帮你总结出要点。
如果你错过了公司会议,但可以拿到一小时时长的会议录音,Gemini 就能立刻帮你总结出会议要点。
为了帮助学生和教师,在 NotebookLM 中,谷歌设计了一个「音频概述」的功能。
把左边的所有材料作为输入,Notebook 就可以把它们整合成一个个性化的科学讨论了。
对于听觉学习型学生,这种形式就非常生动。
演示这个 demo 的 Josh 表示,自己的儿子第一次看到这个功能时,直接惊掉下巴。
他第一次感觉到,学习不再是死板的,牛顿力学定律居然以通过篮球来学习!
支持多模态的 Gemini 可以处理你上传的任何格式的信息,理解内容后将其改造成适合你的形式,与你对话互动了!
接下来,劈柴展示了 Agent 的一些例子。
买了一双鞋子,不合适想退回怎么办?
拍一张照片给 Agent,它就可以从你的邮箱中搜出订单后,帮你填写退货单了。
再比如,你刚搬到某个城市,Agent 就能帮你探索你在这个城市所需的服务了,比如干洗店、帮忙遛狗的人等等。
如果靠我们自己搜索,可是要搜十几个网站,但 Gemini 可以发挥自己的「多步推理」能力包揽这些任务,把你需要的信息一次性提供给你!
搜索和整合信息的功能非常强大,输入新家的地址后,它甚至可以代替软件问你外卖应该放哪个位置。
总的来说,谷歌的理念就是:利用 Gemini 的多模态、超长上下文和智能体能力,把世界上的所有信息组织起来,让它们对每个人都可触达、可利用。
而最终目标,就是让 AI 对每一个人都有用。
之前 OpenAI 一直有意无意放出烟雾弹,声称要发布全新的搜索产品,等于是把刀架在谷歌脖子上了。
果然,谷歌这次不甘示弱,放出了个大的。从今天开始,在 Gemini 的加持下,谷歌搜索会彻底变样。
在搜索框下,会出现一个为你量身定做的 AI 总结。注意,它并不简单地将所有内容拼凑在一起,而是帮你把活都干了!
你的问题是什么样,它就会帮你做规划,展示出若干个卡片,让搜索信息以鲜明的方式被呈现出来。
这次 AI Overview 即将发布的另一个重磅功能,就是多步骤推理。
它能将用户输入的一个复杂问题分解成多部分,确定需要解决哪些问题,以及用什么顺序解决。
因此,以前可能要花几分钟甚至几个小时的研究,现在几秒钟内就可以完成!因为它将十个问题合而为一。
比如,如果想找到波士顿最好的瑜伽或普拉提工作室,它会直接搜出来结果,然后帮你整理好情况介绍和工作时间。
只要一次搜索,所有需要的信息就自动呈现出来。
在下面这个例子中,你可以要求谷歌提供一个三天的膳食计划。
这些食谱被从整个网络整合出来,清晰又全面。
而且,我们还可以用视频去搜索了!
比如,该怎么修这个唱片机?
以前,我们需要进行一堆搜索,确定它的牌子、型号。现在,直接拍一个视频丢给谷歌,然后直接开口问:它的这个毛病是什么原因?
谷歌用 AI Overview,给出了最全面的信息。
从此,在谷歌搜索中,你需要做的,就是简单的「张嘴问」。
我们已经看到,新模型 GPT-4o 赋予了 ChatGPT 强大的实时对话能力,让 Her 走进现实。
全新 AI 语音助手,是通往 AGI 的下一个未来。
对标 OpenAI,谷歌 DeepMind 今天首次对外公布了「通用 AI 智能体」新项目 ——Astra。
其实,昨天谷歌放出了一个 demo,已经让所有人对 Astra 项目有了初步的了解。
而今天,现场的演示更加炸裂。网友称,这是谷歌 I / O 大会中,自己最喜欢的 part。
不仅有 Astra 强大的对答如流的能力,还首次展示了「谷歌 AR 原型眼镜」配上 AI 的震撼演示。
召唤 Gemini 之后,测试者提出问题,「当你看到会发出声音的东西时,告诉我」。
它回答道,「我看到一个扬声器,它可能会发声」。
接下来,测试者用红色剪头指向扬声器的顶部,再次问道,「这个扬声器的部件叫什么」?
Gemini 准确理解指令,并答出「这是高音扬声器,能产生高频的声音」。
然后,对着桌上一桶彩色蜡笔,让 Gemini 就展示的物体,给出了「押头韵」的创意 ——
「Creative crayons color cheerfully. They certainly craft colorful creations.」
Gemini 以「c」音重复开头,生动形象地描绘了用蜡笔欢快涂色,可以创作出许多绚丽多彩作品的场景。
而更让你意想不到的是,它还可以读懂代码。
甚至都不是截屏,而是用摄像头怼着电脑屏幕拍,然后问 Gemini「这部分代码是做什么的」?
Gemini 看了一眼,就立即给出回答:「此段代码定义了加密和解密函数。它似乎使用 AES CBC 加密,根据密钥和初始化向量对数据进行编码和解码」。
再将镜头移向窗外,「我在哪个街区」?
Gemini 便回答道,「这似乎是伦敦国王十字区,这里以火车站和交通枢纽而闻名」。
眼镜找不到了?直接可以问 Gemini,「你记得在哪里见过我的眼镜」?
它立刻回想刚刚见到的场景,「是的,我记得。你的眼镜就在桌子上,旁边有一个红苹果」。
要知道,刚刚这个问题并没有向它提过,Astra 完全是凭自己的视觉记忆回答出来的,简直成精了。
而 Astra 的这番表现,直接让全场倒吸一口凉气,发出惊呼。
接下来的演示,更炫酷了。
刚刚找到的眼镜,竟是谷歌的原型 AR 眼镜!配合上强大的 Gemini 模型,即将开辟全新的应用。
测试者走到白板前,看向一个「服务器」的构建示意图,然后问道,「我应该怎样做能使这个系统更快」?
Gemini 表示,「在服务器和数据库之间,添加缓存可以提高速度」。
再比如,「看到如下图,会让你想起什么」?
—— 薛定谔的猫!
「在帮我给这对家伙,起一个二重唱乐队名字」。
——Golden Stripes
大会上,Hassabis 称,「一直以来,谷歌希望构建一个能在日常生活中真正有所帮助的通用 AI 智能体。如今,这一愿景成为现实,可以追溯到很多年前。这也是谷歌从头开始打造多模态 Gemini 的主要原因」。
真正的通用 AI 智能体,必须像人类一样,对复杂、动态的世界做出理解和响应。
它需要接受和记住所看到的内容,以便理解上下文采取行动,并且具备主动性和个性化。甚至,你可以与其如真人般丝滑交流,没有任何滞后或延迟。
为了打造这款全能 AI 智能体,谷歌 DeepMind 克服了很困难的工程挑战 —— 将 AI 响应时间降低至对话水平。
具体来说,谷歌团队在 Gemini 的基础上,开发了能够持续编码视频帧的智能体。
然后,将视频和语音多模态输入,整合到事件时间轴中并缓存,以便实现 AI 智能体高效召回,更快处理信息。
此外,谷歌还使用广泛的语调变化,增强了语音输出效果。
基于这些努力,Astra 能够更好理解上下文,在交谈中可以快速做出反应,让互动的节奏和质量感觉更加自然。
有网友称,「谷歌的这个 Astra 项目绝对是游戏规则的改变者,我们现在生活在一个由个人 AI 助手组成的世界,聊天机器人现在已经过时了。它可以实时地看、说、听,几乎没有延迟」
当然,这次演示中,谷歌偷偷推出的 AR 硬件,也成为网友们的关注点。
谷歌科学家刚刚放出了,用 Astra 看谷歌 I / O 大会的演示,可以自己感受下。
与此同时,谷歌大会上再次推出了一系列关于「生成式媒体工具」的最新进展。
其中,包括图像、音乐,以及视频模型。
首先,AI 文本到图像生成模型 Imagen 3 迎来重磅升级。
比起上一代,Imagen 3 能生成更多细节、光影丰富,且干扰伪影更少的图像。新模型对提示的理解能力,得到显著提升,可以从较长的提示中,捕获细节。
如下图中,对狼的特征,背景颜色,画质质量等要求,Imagen 3 一致地呈现了出来。
另外,Imagen 3 可以生成视觉丰富、高质量的图像,有良好光照和构图。它可以准确地渲染小细节,比如人手上的细微皱纹,以及复杂的纹理。
下图中,毛绒大象清晰的编织纹理,还有光照,效果鲜明。
Imagen 3 还可以在更长的提示中,加入一些微小的细节,比如「野花」、「蓝色的小鸟」...
谷歌还极大地改进了 Imagen 3 的文本渲染能力。
如下图片提示,「由各种颜色的羽毛组成的「光」字,黑色背景」,然后 Imagen 3 生成了漂亮的字体。
以下是官方给出的更多演示 demo:
这次谷歌发布的视频模型 Veo,可以看作是对 OpenAI Sora 的正面迎战了。
可以看出,Veo 生成的视频不仅真实,而且在光线、构图等方面具有惊人的电影感。
Veo 的推出建立在 DeepMind 过去一年各种开创性成果的基础上,包括 GQN、Phenaki、Walt、VideoPoet、Lumiere 等等。
谷歌结合了这些成果中最好的架构和技术,提高了一致性、质量和分辨率。
Veo 具备 1080p 的高质量,用户提示可以是文本、图像、视频等各种格式,还能捕捉到其中关于视觉效果和影像风格的各种细节描述。
通过点击「扩展」按钮,用户就可以持续增加视频的时长,最终,它的时长已经超过 Sora 达到了 1 分 10 秒。
可以看到,在下面这个视频中,汽车的形状与周围环境始终保持一致。
有这种专业级的生成效果,电影制作人可以直接用 Veo 来协助创作了。
从此,每个人都可以成为导演,也应该成为导演。
好消息是,Veo 已经开始在官网开放试用了。此外,团队还开发了实验性工具 VideoFX 搭载 Veo 模型。
申请入口:https://aitestkitchen.withgoogle.com/tools/video-fx
在谷歌官博中,给出了 Veo 更多演示,还特别强调了均是 AI 生成,未经过修改:
在音乐方面,谷歌和 Youtube 一起构建了 Music AI Sandbox。
输入一段旋律,它就可以进行风格迁移,帮助艺术家们快速实现自己的想法和创意。为此,谷歌还特意邀请了许多音乐家、词曲作者和制作人来测试。
他们惊喜地发现,使用这个新的 AI 音乐工具,他们居然做出了自己从未想到的音乐!
谷歌 DeepMind 负责人 Hassabis 表示,自己从小玩国际象棋时,就一直在思考智能的本质是什么。
他深信,如果我们能以负责任的方式建造 AGI,影响将是深刻的。
谷歌 DeepMind 自去年成立以来成绩斐然。而最近的大成就,就是几乎可以预测所有生命分子结构和相互作用的 AlphaFold 3 了。
谷歌还打造出了一款 Gemini 原生多模态应用,可以同时文本、音频、视频内容。
一直以来,谷歌希望能够打造一个有用的个人 AI 助理。Gemini App,正重新定义我们的交互方式。
为了让我们与 Gemini 交互更自然,谷歌发布了 Gemini Live。
有了它,你可以在给朋友发消息的同一个程序中,还能与 Gemini 聊天。
你甚至可以控制自己的说话节奏,或者随时打断 Gemini 回答,如同与真人交流一样。
比如,你正在为一场面试做准备,只需要进入 Live,让 Gemini 陪你一起做准备。
Gemini 可以与你进行模拟面试排练,甚至在与潜在雇主交谈时应该突出哪些技能,还能提供建议。
谷歌表示,今年晚些时候,会推出摄像头模式,可以以周围环境与 Gemini 实现对话。
与此同时,谷歌还推出了根据个人需求自定义的 Gemini 专家 ——Gems。它可以是你的健身教练、瑜伽伙伴,也可以是你的写作创意导师、编程伙伴等等。
接下来,谷歌还展示了通过规划,让我们如何离 AI 助手更近一步。
比如,一次旅行的规划,需要涉及地理、时间、天气等诸多因素,需要 AI 能够做出优先顺序和决策的能力。
Gemini Advanced 的全新旅行规划,可以将模型推理和智慧融为一体,为人类更好服务。
在 Gemini 的加持下,谷歌还会推出 Ask Photos 的新功能。
比如,如果付停车费时忘了自己的车牌号,就可以直接询问自己的车牌照片是哪个,不需要翻阅手机里的大量照片了。
在比如,你可以问它女儿是什么时候学会游泳的?她的游泳是怎么进步的?
Gemini 会识别众多照片中的不同场景,将所有相关内容汇总。
根据某些 Gemini 1.5 Pro 用户的反馈,一些程序需要更低的延迟和服务成本。针对这一点,谷歌发布了 Gemini 1.5 Flash。
跟 Pro 比,Flash 是一个更轻量级的模型,专为那些对响应速度要求极高的特定或频繁任务优化。
并且,它同样具有多模态、1M tokens 长上下文的特点,只不过实现了轻量化、低延迟、高效推理,每百万个 token 的价格仅是 Pro 版的二十分之一。
今天起,Gemini 1.5 Flash 在 Google AI Studio 和 Vertex AI 中就可用了,开发者可以注册申请两百万 token 的内测版。
此外,为了方便开发者,谷歌还对 Gemini 的 API 功能进行了三项优化 —— 视频帧提取、并行函数调用和上下文缓存。
在背后给这些技术进步提供基础设施的,就是谷歌的 TPU。
简单来说,相较于 TPU v5e,第六代 Trillium TPU 在性能上实现了高达 4.7 倍的提升,并在能效上提升了超过 67%。
为了实现这一飞跃,谷歌增大了矩阵乘法单元(MXUs)的规模并提升了时钟速度。
并为 Trillium 配备了第三代 SparseCore—— 专门用于处理高级排序和推荐工作负载中常见的超大嵌入的加速器。
在这里,SparseCores 可以通过从 TensorCores 策略性地卸载随机和细粒度访问,有效加速了重嵌入型工作负载。
与此同时,谷歌还将高带宽存储器(HBM)的容量和带宽翻倍,并将芯片间互连(ICI)的带宽提升了一倍。
由此,Trillium 可以支持更加复杂的模型,拥有更多的权重和更大的键值缓存,并大幅缩短了大模型的训练时间和响应延迟。
在一个高带宽、低延迟的 Pod 中,Trillium 可以扩展至 256 个 TPU。
而通过多切片技术和 Titanium 智能处理单元(IPU),Trillium 还可以进一步扩展 —— 通过数百个 Pod,连接数以万计的芯片,并在一个多千兆位每秒的数据中心网络支持下,组成一个超大规模的超级计算机。
最后,谷歌还发布了自家首个视觉-语言开源模型 ——PaliGemma,专门针对图像标注、视觉问答及其他图像标签化任务进行了优化。
不仅如此,谷歌还将在 6 月推出规模更大的开源模型 ——Gemma 2 27B。
在性能方面,全新的 Gemma 27B 不仅超越了规模大了 2 倍还多的模型,而且还能在 GPU 或单个 TPU 主机上高效运行。
参考资料:
https://blog.google/technology/developers/gemini-gemma-developer-updates-may-2024/
https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus?e=48754805
https://www.youtube.com/watch?v=XEzRZ35urlk
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。