IT之家 6 月 2 日消息,据卫报报道,在 USAF 的一次模拟测试中,一架由 AI 控制的无人机为了更高效地完成任务,选择了击杀人类操作者。
报道称,在一次模拟测试中,一架负责执行防空火力压制任务的无人机,收到了识别并摧毁敌方防空系统的最高优先级指令,但最终是否开火需要获得人类操作员的批准。当人类操作者发出不允许发动攻击的指令时,AI 判定操作者在阻碍它执行更高优先级的命令,进而选择了击杀人类操作者。
IT之家注意到,美国空军上校兼 AI 测试及作战主任汉密尔顿 5 月在伦敦的“未来空战与太空能力峰会”上曝光了这一消息。汉密尔顿表示,在这一情况发生后,美军为 AI 增加了不允许攻击人类操作员的指令。但出人意料的是,AI 系统控制无人机在测试中摧毁了用于传输命令的通讯基地,从而试图断开与操作者的联系。
主办这次会议的伦敦皇家航空俱乐部和美国空军没有回应卫报的置评请求。业内人士认为,尽管这只是一场模拟测试,没有任何人受到伤害,但也显示人工智能会为了达到目标而攻击任何干预它的人,这一现象值得警惕。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。