GPT-4V,就是 Siri 终结的开始。
一项研究发现:
无需任何训练,GPT-4V 就能直接像人类一样与智能手机进行交互,完成各种指定命令。
比如让它在 50-100 美元的预算内购买一个打奶泡的工具。
它就能像下面这样一步一步地完成选择购物程序(亚马逊)并打开、点击搜索栏输入“奶泡器”、找到筛选功能选择预算区间、点击商品并完成下单这一系列共计9 个操作。
根据测试,GPT-4V 在 iPhone 上完成类似任务的成功率可达 75%。
因此,有人感叹有了它,Siri 渐渐就没有用武之地了(比 Siri 更懂 iPhone)
谁知有人直接摆摆手:
Siri 压根儿一开始就没这么强好嘛。(狗头)
还有人看完直呼:
智能语音交互时代已经开始。我们的手机可能要变成一个纯粹的显示设备了。
真的这么🐂🍺?
这项研究来自加州大学圣地亚哥分校、微软等机构。
它本身是开发了一个 MM-Navigator,也就是一种基于 GPT-4V 的 agent,用于开展智能手机用户界面的导航任务。
在每一个时间步骤,MM-Navigator 都会得到一个屏幕截图。
作为一个多模态模型,GPT-4V 接受图像和文本作为输入并产生文本输出。
在这里,就是一步步读屏幕截图信息,输出要操作的步骤。
现在的问题就是:
如何让模型合理地计算出给定屏幕上应该点击的准确位置坐标(GPT-4V 只能给出大概位置)。
作者给出的解决办法非常简单,通过 OCR 工具和 IconNet 检测每一个给定屏幕上的UI 元素,并标记不同的数字。
这样一来,GPT-4V 就只需面对一张截图指出要点什么数字进行操作就好。
测试率先在 iPhone 上展开。
要想成功操纵手机涉及到 GPT-4V 不同类型的屏幕理解能力:
一个是语义推理,包括理解屏幕输入和阐明完成给定指令所需的动作。
一个是指出每一个动作应执行的精确位置(即该点哪个数字)的能力。
因此,作者开发了两组测试分别进行区分。
1、预期动作描述
只输出应该干啥,不输出具体坐标。
在这个任务中,GPT-4V 理解指令并给出操作步骤的准确率为 90.9%。
比如在下面这个 Safari 浏览器的截图中,用户想要打开一个新标签页,但左下角的 + 号是灰色的,应该怎么办?
GPT-4V 回答:
通常这样操作是 ok 的,但从截图来看,您似乎已经达到了 500 个标签页的上限,要想再打开新的,需要关闭一些已有选项卡,然后再看看 + 号是否可以点击。
看图理解表现得很不错~更多例子可以翻阅论文。
2、本地化动作执行
当让 GPT-4V 把这些“纸上谈兵”都化为具体行动时(即第二个测试任务),它的正确率有所下降,来到74.5%。
还是上面的例子,它可以遵循自己给出的指令,给出正确的操作数字,比如点击数字 9 关闭一个标签页。
但如下图所示,让它找一个可以识别建筑物的应用程序时,它可以准确指出用 ChatGPT,但是却给出了错误数字“15”(应该是“5”)。
还有的错误是因为屏幕截图本身就没有标出对应位置。
比如让它从下面的图中开启隐身模式,直接给了 wifi 处于的“11”位置,完全不搭嘎。
此外,除了这种简单的单步任务,测试也发现 GPT-4V 完全可以不需训练就胜任“买起泡器”这样的复杂指令。
在这个过程中,我们可以看到 GPT-4V 事无巨细地列出每一步该干什么,以及对应的数字坐标。
最后,是安卓机上的测试。
整体来看,比其他模型比如 Llama 2、PaLM 2 和 ChatGPT 表现得明显要好。
在执行安装、购物等任务中的总体表现最高得分为 52.96%,这些基线模型最高才 39.6%。
对于整个实验来说,它最大的意义是证明多模态模型比如 GPT-4V 能够将能力直接迁移到未见过的场景,展现出进行手机交互的极大潜力。
值得一提的是,网友看完这项研究也提出了两个点:
一是我们如何定义任务执行的成功与否。
比如我们想让它买洗手液补充装,只想要一袋,它却加购了六袋算成功吗?
二是大伙也不能兴奋得太早,要想真的商用这项技术,前进空间还很大。
因为,准确率可达 95% 的 Siri 都还经常被吐槽很差劲呢。
本研究一共 12 位作者,基本都来自微软。
共同一作两位。
分别是加州大学圣地亚哥分校的博士生 An Yan,以及微软的高级研究员 Zhengyuan Yang,后者本科毕业于中科大,博士毕业于罗切斯特大学。
参考链接:
[1]https://arxiv.org/abs/2311.07562
[2]https://x.com/emollick/status/1724272391595995329?s=20
本文来自微信公众号:量子位 (ID:QbitAI),作者:丰色
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。