旧金山授权机器人杀人:潘多拉魔盒开启?

2022-12-05 08:17新浪科技 - 郑峻

旧金山政府在全美首次允许警方使用机器人击毙嫌犯,这一决定引发了巨大的争议。这是否会在未来打开一个潘多拉魔盒,让机器人镇压抗议示威成为现实,更颠覆机器人“不可杀人”的人工智能伦理准则?

治安恶化与争议决议

上周二,旧金山议会通过了一项议案,同意授权旧金山警察局在必要的情况下,将警用机器人用于致命用途。用通俗的话说,他们批准警方在保护生命且没有其它选择的必要情况下,用机器人远程杀死嫌犯。

这一极具争议的决定不仅立即引发了全美媒体关注,也让持续数年的“杀人机器人”话题重新成为了讨论焦点。这份议案上个月提交讨论时,就引发了旧金山湾区社会各界的普遍关注和激烈讨论。

正式表决之前,旧金山市议会已经就此事讨论了数周时间。而投票表决当天,旧金山市议会围绕着这一议题,进行了两个多小时的激烈辩论。最终还是以 8:3 的投票结果,批准了旧金山警察局的装备使用授权。

旧金山市议会批准这一议案的背景是,他们正承受着民众要求打击犯罪的呼声。和美国很多大城市一样,旧金山过去几年也面临着严重的治安恶化问题,让民众和商家怨声载道。车窗被砸已经成为旧金山停车的寻常体验。

由于警方应顾不暇,旧金山核心商业区多次发生光天化日之下肆无忌惮抢劫超市和奢侈品商店的事件,不少商店只能选择关门撤离。除了打砸抢夺的财物犯罪案件居高不下,持枪抢劫杀人的恶性暴力犯罪事件也在日益增多。80 多万人口的旧金山去年杀人案 56 起,比疫情之前 2019 年的 41 起有明显增长。

由于对治安恶化问题不满,今年 7 月,旧金山选民通过特别公投罢免了对犯罪问题应对不力的激进左派地方检察官布丁(Chesa Boudin)。在连任压力下,旧金山市长承诺采取措施严打犯罪,而旧金山议会也连续引入新技术手段来遏制犯罪。今年 9 月,旧金山议会批准警方在特定情况下获取私人监控摄像头数据。

在上周二的辩论过程中,支持与反对双方都指责对方在制造恐慌。双方都提出了自己的理由和担忧。支持者认为这一授权是非常慎重和明确限制的,是在极端情况下给警方提供最后手段;但反对者则认为可能会带来警方滥用武力的风险,更会加剧警方和有色人种,尤其是非裔之间的冲突。

提出这一议案的旧金山华裔议员陈诗敏(Connie Chan)表示,她理解外界对警方使用武力的担忧情绪,但“我们需要根据加州法律使用这些装备。这绝对不是一个轻率的讨论。”另一位议员曼德尔曼(Rafael Mandelman)也投下支持票。他表示,激进派将警察视为危险和不值得信任的对立面,这对公共安全无益。

而反对的非裔议员沃尔顿(Shamann Walton)则强调,自己不是在针对警方,而是担心提升警方武器装备可能会增加警察与有色人种发生负面冲突的机会。相对而言,非裔民众更为担忧和反对警方滥用武力的可能性。

值得一提的是,旧金山检察官也站在了警察局的对立面。就在旧金山议会表决前一天,旧金山检察官办公室发表公开信,认为授权机器人远程杀人有悖于旧金山的进步价值观,他们因此呼吁市议会禁止警方使用机器人针对任何人采用武力。

随时可改装加载武器

为什么会有这项授权表决?根据今年生效的一部加州新法律,加州警察局装备军用级别的设备需要获取使用批准。为了预防恐怖袭击事件,过去十年美国诸多城市的警察局都购置了一批军用级别的防爆机器人。旧金山警察局也不例外,因此需要提交设备使用授权申请。

但旧金山警察局此次在申请授权的时候,加入了一个极端案例的使用场景申请,即在“公众或者警察生命遭受迫切威胁,无法使用其他武力手段时,允许他们将机器人用于致命武器选择”。这意味着,他们有权将机器人改装成攻击性武器,从而远程击毙或者炸死恐怖嫌犯。

旧金山警察局副局长拉扎尔(David Lazar)在市议会辩论环节中提到,他们申请极端情况授权是为了应对 2017 年拉斯维加斯大规模枪击案那样的案例。“我们必须要考虑,在那样的情况下,(动用机器人)是一个可能的选择。”

拉斯维加斯枪击案是美国历史上最血腥的大规模枪击和国内恐怖袭击事件。2017 年 10 月 1 日,一名男子在赌城曼德拉湾酒店 32 楼套间,用二十多支经过改装的半自动步枪向楼下参加音乐会的人群疯狂射击了 1000 多发子弹。警方直到 1 个多小时之后才找到嫌犯,但他已经自杀身亡,作案动机迄今依然成谜。此次枪击案导致 61 人死亡(包括嫌犯),还有 500 多人受伤。

或许拉扎尔提到的这一场景太过令人震撼,最终旧金山议会还是以多数票同意了警察局的申请。但议会也对此作出了特别规定,要求警察只能在使用其他武力或避免战术之后,或认定他们无法通过其他手段控制嫌犯之后,才能使用机器人用于致命用途。而且,只有少数高级别警官才能批准使用机器人作为致命武力。

为了化解外界对“杀人机器人”的担忧情绪,旧金山警察局则强调,他们现有的机器人并没有安装武器,目前也没有计划这么做。但是在得到授权之后,如果在生命受到威胁时,他们就可以在机器人上安装爆炸物,“接近、迷惑以及让暴力、携带武器或者危险的嫌犯失去行动能力”,“安装这些设备的机器人只会被用在极端情况下,用于保护或者防止无辜民众继续丧生。”

根据旧金山警局公布的装备清单,他们目前共有 17 部拆弹机器人,其中 12 部可以投入使用。这些设备采购于 2010-2017 年,主要用于处理爆炸物、危险品或者在低能见度环境,此前从未安装或被用于爆炸用途过。除了申请用于致命用途之外,旧金山警察局还申请将这些机器人用于“训练和模拟、刑事拘捕、重要事件、突发情况、执行逮捕或处理可疑设备等情况”。

虽然旧金山警察局当前机器人并没有安装致命武器,但其中部分较新的型号是可以配装武器并且远程遥控操作的。型号 F5A 的拆弹机器人可以通过配件安装大口径步枪;另一部 QinetiQ Talon 的机器人也可以改装成军用版本,安装手雷发射器、机枪以及反器材步枪,这原本就是美国陆军使用的同款机器人的警用版。

换句话说,在得到旧金山市议会批准之后,旧金山警察局在满足使用条件的情况下,随时都可以将目前的拆弹机器人改装成一部远程操作和直接开火的机器人。而这正是外界担忧的原因所在。

担忧警方滥用机器人

与旧金山隔海相望的奥克兰警察局上个月则因为公众抗议,放弃了类似的改装机器人用于极端场景的授权申请。种族矛盾是奥克兰警方不得不考虑的因素。这里的黑人与拉丁裔人口比例合计超过 45%,是旧金山湾区比例最高的地区。

尽管紧邻硅谷,奥克兰却是美国治安最糟糕的城市。去年暴力犯罪率高达 75.5,远远高于美国平均水平 22.7。新冠疫情更是加剧了社会矛盾和治安问题。奥克兰这座 43 万人口的城市,去年谋杀案高达 133 起,枪击案更是接近 600 起,均创下了 2006 年以来的最高纪录。

既然美国大城市社会治安这么糟糕,为什么还有那么多人反对授权警察更先进的武器应对袭击嫌犯?为什么警用机器人改装成武器,会引发那么大的争议?

2020 年美国新冠疫情爆发之后,社会矛盾进一步激化,更出现了多次大规模种族骚乱事件。在遏制游行示威行动中,美国各地的警察都与示威者发生了不同程度的冲突,更使用了催泪弹、烟雾弹等平暴手段。

此次旧金山警方获准使用机器人击毙嫌犯,即便明确规定了极端场景,也让不少人担心未来美国警方是否可能滥用机器人这种尖端科技手段来镇压民众抗议示威活动,担心届时可能出现警方机器人阻止示威者前行的科幻场面。

南加州大学法学院教授伊丽莎白・乔(Elizabeth Joh)认为,弗洛伊德事件引发全球反种族歧视抗议仅仅过去两年时间,旧金山批准警方使用机器人作为武器会影响民众对执法部门的信任。“我们是否愿意生活在一个警察用机器人杀人的世界,我肯定不愿意。”

虽然此次旧金山议会在全美率先批准警方改装机器人,但达拉斯警察局早在 2016 年,就在一起大规模枪击案中,率先将拆弹机器人用于攻击用途并杀死嫌犯。

那年 7 月,一名曾经上过阿富汗战场的陆军退伍军人,因为对美国社会和种族问题不满,在达拉斯市区用狙击步枪杀死了 5 名警察并击伤 9 名平民与警察,这是美国自 911 事件之后警察死伤最多的袭击事件。达拉斯警方在与枪手对峙数个小时并且谈判无果的情况下,在他们拆弹机器人 MARCbot 上加装炸弹,远程遥控移动到嫌犯附近引爆,炸死了这位拒绝放下武器的嫌犯。

达拉斯警方击毙杀人嫌犯并没有争议,但使用遥控机器人击毙却引发了巨大的争议,因为这是美国警方首次在国内使用机器人杀人。达拉斯警察局长对此解释说,“当时实在没有其他选择,这是唯一减少伤亡的手段。”

在此之前,美国警察也曾经多次使用机器人来应对嫌犯,但并没有用机器人来直接击毙嫌犯。2013 年新墨西哥州特警就使用了机器人潜入嫌犯所在房间进行侦查,2016 年加州警察也用过机器人和嫌犯进行谈判和运送物资,避免派出谈判专家。机器人的存在,大大降低了警察直接面对嫌犯的风险。

机器人早被用于战场

实际上,此次旧金山警方寻求授权的机器人,早就被美国军方投入战场使用。2011 年的《不断变化的战争角色》(The Changing Character of War)一书记载,美军士兵在伊拉克遇到伏击危险的时候,就会让 MARCbot 机器人先去探路,如果发现敌人就直接远程引爆安装在上面的 Claymore 地雷。售价仅为 5000 美元的 MARCbot 机器人因为个头小、动静轻、成本低等优势,成为美军士兵的“最爱替死鬼”。

从某种程度来说,无人机也是作战机器人。从阿富汗战争时期开始,无人机就开始从侦查用途转向攻击手段,被美军普遍用于远程袭击。而从 2020 年的亚美尼亚阿塞拜疆纳卡冲突起,无人机更是成为了现代战争主力。阿塞拜疆军方派出大量携带炸弹的无人机对亚美尼亚地面部队以及防空体系展开了密集攻击,成为他们赢得战争的重要手段。

今年 10 月,波士顿动力、Agility Robotics、ANYbotics 等五家机器人公司联合签署了一份请愿书,呼吁用户不要将他们的机器人用于攻击用途。“在远程遥控或者自动运行的机器人上加装武器,会带来对人类的新风险以及严重的道德问题。”

然而,这份请愿书只是象征用途,并没有任何约束力。美国军方本就是这些机器人公司的重要客户和资金来源,波士顿动力的机器狗也被美国军方和警察用于后勤、侦查等诸多用途。波士顿动力根本无力阻止美军将自己的机器狗改装成携带武器的杀人狗。

相比远程遥控的机器人与无人机,更为可怕的威胁则来自于“AI 杀人机器人”,即搭载视觉识别等人工智能技术的新一代全自动武器。这类机器人或无人机可以无需人工操作,靠着计算芯片和多种传感器,根据预先设定的程序自动选择攻击目标并发起攻击。

目前还没有此类机器人投入使用的正式记录,但未来一旦出现并投入使用,势必会动摇“不可用于杀人”的机器人伦理准则。随着 AI 技术的不断成熟,欧美各界都在担忧如果不采取全球协调一致的有效措施,“AI 杀人机器人”的出现只会是时间问题。

早在 2013 年,科学界和法律界的专家就组建了“国际机器人武器控制委员会”(International Committee for Robot Arms Control),致力于推动各国和平使用机器人,对机器人武器研发生产采取共同监管措施。该组织明确提出,“不能允许机器人自主作出杀人的决定”。

2015 年,霍金等全球 1000 多名知名科学家和人工智能专家联合发表公开信,警告未来全球可能会出现人工智能军备竞赛,督促联合国发布攻击性自动化武器的禁令。其中包括了特斯拉 CEO 马斯克、苹果联合创始人沃兹尼亚克以及谷歌 DeepMind 项目负责人等来自硅谷的代表。

公开信写道,“尽管不合法,自动化武器的使用会在未来几年,而不是几十年内成为现实。这会给人类社会带来极大的风险,自动化武器会成为火药和核武器之后的第三次武器革命。我们必须呼吁联合国禁止此类武器,就像禁止化学武器一样。”

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享