苹果 WWDC23 不提“人工智能”,更倾向使用“机器学习”

2023-06-06 11:53IT之家 - 远洋

IT之家 6 月 6 日消息,苹果公司在周一的 WWDC 2023 主题演讲中,除了发布了备受期待的 Mac Pro 和 Vision Pro 等新产品外,还展示了其在机器学习领域的最新进展。不过IT之家注意到,与微软和谷歌等竞争对手大力宣传生成式人工智能不同,苹果公司在演讲中并没有提及“人工智能”这个词,而是更多地使用了“机器学习”和“ML”这样的术语。

例如,在 iOS 17 的演示中,软件工程高级副总裁 Craig Federighi 介绍了自动纠错和语音识别的改进:

自动纠错是由设备上的机器学习驱动的,多年来,我们不断地提升这些模型。键盘现在利用了一种 transformer 语言模型,这是目前最先进的词预测技术,使得自动纠错比以往更加准确。而且,借助 Apple Silicon 芯片的强大性能,iPhone 可以在你每次按下一个键时运行这个模型。

值得注意的是,苹果公司在其主题演讲中提到了人工智能领域的一个术语“transformer”。该公司具体谈到了一种“transformer 语言模型”,这意味着其人工智能模型使用了 transformer 架构,这是近期许多生成式人工智能所使用的底层技术,例如 DALL-E 图像生成器和 ChatGPT 聊天机器人。transformer 模型(一个于 2017 年首次提出的概念)是一种用于自然语言处理(NLP)的神经网络架构,采用了自注意力机制,使其能够优先处理序列中不同的单词或元素。其能够并行地处理输入,从而显著提高了效率,并在 NLP 任务中取得了突破性的进展,如翻译、摘要和问答。

据苹果公司介绍,iOS 17 中的新 transformer 模型可以实现句级别的自动纠错,当你按下空格键时,它可以完成一个单词或整个句子。还会根据你的写作风格进行学习,从而指导其建议。苹果公司还表示,语音识别“采用了一种基于 transformer 的语音识别模型,利用神经引擎使语音识别更加准确”。

在主题演讲中,苹果公司还多次提到了“机器学习”,比如在描述新 iPad 锁屏功能(“当你选择一张 Live Photo 时,我们使用一种先进的机器学习模型来合成额外的帧”);iPadOS PDF 功能(“利用新的机器学习模型,iPadOS 可以识别 PDF 中的字段,让你可以使用自动填充功能快速填写信息,比如从你的联系人中获取的姓名、地址和电子邮件等。”);AirPods 自适应音频功能(“通过个性化音量,我们使用机器学习来了解你的收听偏好随时间的变化”);以及 Apple Watch 小部件功能 Smart Stack(“Smart Stack 使用机器学习在你需要的时候向你展示相关信息”)。

苹果公司还推出了一款叫做 Journal 的新应用,可利用设备端机器学习提供个性化建议,为用户带来日记灵感。这些建议根据用户近期活动智能生成,包括照片、人物、地点、体能训练等,帮助用户更轻松地开始记录。

最后,在演示 Vision Pro 头显时,该公司透露,用户眼睛上的动态图像是由扫描你的脸部创建的一个特殊的 3D 头像 —— 当然,这也是机器学习的功劳。

苹果 WWDC23 开发者大会专题

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享