7 月 31 日消息,据外媒 Tech Xplore 报道,康奈尔大学的研究人员发现恶意代码很容易隐藏在 AI 的神经网络系统中,并且人们难以察觉。
研究团队尝试将恶意代码嵌入到一个名为“AlexNet”AI 的神经网络系统中,随后他们发现不仅常见的杀毒软件无法发现恶意代码件的存在,而且 AI 被恶意代码感染之后,运行状态也不会发生变化,人们也更难以察觉系统中存在恶意代码。因此,如果不法分子利用这样的方式入侵 AI 中,将会很容易盗窃系统里的重要数据。
研究人员表示,在此次实验中,他们将恶意代码添加到神经网络系统中最容易入侵的注入层(injection)。此外,他们选择的是已经训练过的 AI 系统,而不法分子们可能更愿意选择一些从未经过训练的 AI 神经网络系统,这样入侵起来会更加方便。
研究人员指出,如果简单地向 AI 添加一段恶意代码,AI 模型并不会受到伤害,因为无论谁将代码插入到 AI 模型中,都需要找到该代码的执行方式。但如果将恶意代码入侵到 AI 的神经网络系统中,恶意代码会模仿神经网络的结构运作,悄无声息地“融入”到 AI 的神经网络系统中。
他们表示,现在人们注意到黑客可以将恶意代码隐藏在 AI 的神经网络系统中后,可以设计出更加全面的防病毒软件,以免用户损失。
康奈尔大学的研究人员发现,恶意代码入侵 AI 的神经网络系统后,能在无声无息中对用户的数据安全以及财产造成较大的威胁。
随着 AI 技术快速发展,AI 已经逐渐渗入日常生活的各个角落中,但我们也需要关注 AI 技术背后的安全漏洞,因为这些安全漏洞可能会成为威胁到国家安全的“武器”。近期,俄罗斯黑客组织 REvil 在 9 个月内入侵了近 180 家公司,300 家组织,甚至让美国部分能源公司全面瘫痪。
因此,面对 AI 时代的快速发展,AI 时代的安全是不可避免的重要话题,技术应与安全并行。
来源:Tech Xplore
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。