微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

2024-08-22 07:09IT之家 - 故渊

IT之家 8 月 22 日消息,科技媒体 darkreading 昨日(8 月 21 日)发布博文,报道微软 Copilot Studio 存在服务器端请求伪造(SSRF)安全漏洞,会泄露敏感云数据。

微软 Copilot Studio 简介

IT之家附上微软官方介绍如下:

Copilot Studio 是一个端到端对话式 AI 平台,支持你使用自然语言或图形界面创建和自定义助手。

用户使用 Copilot Studio,可以轻松设计、测试和发布满足内部或外部场景的需求。

漏洞

研究人员利用微软 Copilot Studio 工具中的一个漏洞,能够发出外部 HTTP 请求,从而访问云环境中有关内部服务的敏感信息,并潜在影响多个租户。

Tenable 的研究人员在聊天机器人创建工具中发现了服务器端请求伪造(SSRF)漏洞,他们利用该漏洞访问了微软的内部基础架构,包括实例元数据服务(IMDS)和内部 Cosmos DB 实例。

该漏洞被微软追踪为 CVE-2024-38206,根据与该漏洞相关的安全公告,经过验证的攻击者可以绕过 Microsoft Copilot Studio 中的 SSRF 保护,通过网络泄漏基于云的敏感信息。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享