IT之家 8 月 30 日消息,微软今天发布新闻稿,宣布推出第三代 Turing Bletchley 视觉语言模型,并逐步整合到必应(Bing)等相关产品中,可以大幅改进图像搜索体验。
微软于 2021 年 11 月发布初版 Turing Bletchley 视觉语言模型,并于 2022 年秋季开始邀请用户,测试 Turing Bletchley v3 视觉语言模型。
经过长时间的打磨之后,微软不断根据用户的反馈和建议,积极调整该模型,能够根据关键词提供更精准的图像内容。IT之家从博文中获悉,以中文“吃冰激凌的狗”为例,搜索结果更加符合关键词内容。
微软表示目前已使用 Turing Bletchley v3 视觉语言模型,用于审核 Xbox 游戏服务上的内容,它可以帮助团队识别 Xbox 玩家上传到其个人资料中的图像和视频,营造更和谐的社区环境。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。