以军在加沙用AI杀人:杀一名哈马斯高官允许误杀一百平民

上周,一场自主武器国际会议在奥地利维也纳召开。这次会议讨论了人工智能(AI)与军事技术结合的相关话题,来自100多个国家和地区的官员参加。
随着AI驱动的致命性自主武器系统(LAWS)投入实战,继火药和核武器之后的“第三次军事革命”将可能发生。
事实上,半岛电视台近日就报道称,一项调查揭露,以色列陆军正在加沙实地测试一款名为“薰衣草”的AI作战系统。该系统能快速判断猎杀目标的时间、地点及方式。
图片
(5月4日,在加沙地带中部迈加齐难民营,一名男子查看以军空袭后的废墟。图/新华社)
无人监管的猎杀:AI标记轰炸目标,人工只花20秒确认目标均为男性
媒体曝光的一份调查显示,以色列军队正在使用名为“薰衣草”的人工智能辅助定位系统,隔离和识别数千名巴勒斯坦人,作为潜在的轰炸目标。半岛电视台的罗里·查兰兹报道说:“这个数据库负责拟定多达37000个目标的死亡名单。”
6名以色列情报官员,曾直接参与使用人工智能生成暗杀目标。他们说,“薰衣草”在对巴勒斯坦人的轰炸中,发挥了核心作用,特别是在战争的早期阶段。
从形式上说,“薰衣草”系统是用来标记哈马斯和巴勒斯坦所有可疑人员(包括低级别人员),以此作为潜在的轰炸目标。
在战争早期,军方普遍批准军官采用“薰衣草”的杀戮名单,没有要求彻底检查机器做出这些选择的原因,也没有检查这些选择所依据的原始情报数据。
一个消息来源指出,人工人员通常只是机器决策的“橡皮图章”,通常情况下,他们在授权轰炸之前,只会亲自花大约“20秒”在每个目标上——只是为了确保“薰衣草”标记的目标是男性。在实践中,消息人士说,这意味着对于被“薰衣草”标记错误的平民,没有监督机制来发现错误。
军方全面使用:情报人员批准采用AI拟定的杀戮名单
消息人士称,在新一轮巴以冲突爆发大约两周后,以色列情报人员“手动”检查了人工智能系统随机选择的数百个目标样本的准确性,并批准自动采用“薰衣草”的杀戮名单,该名单以前仅用作辅助。当该样本发现“薰衣草”的结果在确定个人与哈马斯的关系上达到了90%的准确率时,军方批准了该系统的全面使用。
此外,以色列军队在目标个人在家时(通常是在晚上),有系统地对他们进行攻击,而不是在军事活动期间,。据消息来源说,这是因为,从他们认为的情报角度来看,在这些人的私人住宅中更容易找到他们。
图片
( 5月4日,在约旦河西岸城市图勒凯尔姆,以军和巴勒斯坦人冲突现场冒起浓烟。图/新华社)
被允许的滥杀:猎杀一名哈马斯高官,允许误杀100个平民
媒体披露,以色列军队知道,没有要求“不出错”的政策。“薰衣草”的出错率约为10%。查兰兹说:“(即使AI公管局存在误差,)这并没有阻止以色列利用它来快速识别加沙地带低级别的哈马斯人员,并对他们进行轰炸。”
在新一轮巴以冲突的头几周,以军几乎完全依赖于“薰衣草”,多达37000名巴勒斯坦人被怀疑是武装分子,以军对他们及其住宅进行空袭。
卡塔尔哈马德·本·哈利法大学助理教授马克·欧文·琼斯,在接受半岛电视台采访时表示,越来越明显的是,以色列军队正在“部署未经测试的AI系统……来做出有关平民生死的决定”。
以色列媒体《+972》报道说,这种方法导致加沙成千上万平民死亡。
加沙卫生部称,自去年10月7日新一轮巴以冲突以来,至少有33037名巴勒斯坦人在以色列的袭击中丧生,75668人受伤。
针对越来越多的批评,以色列军方表示,其分析人员必须进行“独立检查”,以核实所确定的目标符合国际法的相关定义,以及以色列军队的规定。
以军否认“薰衣草”是一个“系统”,声称其“只是一个数据库,其目的是交叉引用情报来源,以产生关于恐怖组织军事行动人员的最新信息”。然而事实上,每一个巴勒斯坦武装人员成为预定目标,就有“5到10个可以接受的平民死亡”,这说明了为什么加沙有这么多的平民死亡。
消息人士称,以色列军队在冲突的最初几周决定,“薰衣草”每标记一名哈马斯初级特工,就允许附带杀死15到20名平民。同时,成功猎杀一名哈马斯高级官员,在袭击中附带杀死的平民人数被允许控制在100人以内。
联合国人权和反恐特别报告员本·索尔表示,如果报告中的细节被证明属实,“以色列在加沙的许多袭击,都将构成发动不相称袭击的战争罪。”
悉尼新南威尔士大学的人工智能专家托比·沃尔什教授表示,法律学者可能会认为,使用AI瞄准目标,违反了国际人道主义法。
【新闻链接】AI的“奥本海默时刻”
上周,在自主武器国际会议上,美国著名信息物理学家阿吉雷发出警告,当年拉塞尔博士预言的“杀人机器人时代已经到来”。
阿吉雷表示,现在,只要有一个3D打印机和基本的编程知识,一名学生便可制作出有能力引起大规模伤亡的无人机。自主武器系统已经永远地改变了国际稳定的概念。人工智能系统遭黑客攻击,卫星和其他数据丢失,甚至人工智能本身引起的幻觉,都可能成为AI武器系统潜在的风险。
奥地利外长沙伦贝格表示,“实际上,在某种程度上,它(AI自主武器)比奥本海默时刻更糟糕。这是自火药发明以来战场上最大的革命,而这种技术更廉价,发展更快。”
电影《奥本海默》的导演克里斯托弗·诺兰曾表示,很多顶级的人工智能研究者,将当下视为AI的“奥本海默时刻”。这是一种不祥的预感:往日经验永久失效,未知浩劫须臾降临。这一刻,人类及地球的命运,仿佛缩进一只盲盒中。
奥本海默是美国研制原子弹的首席科学家。这一忧虑其实是两个层面,一是AI是否和原子弹一样具有毁灭世界的能力;二是AI领域的科学家是否面临和奥本海默一样的道德困境。
奥地利裁军事务高级别官员、此次自主武器会议的策划者亚历山大·克门特指出,短期内依靠外交途径解决AI武器监管存在较大难度,因为这将是一项巨著式的条约。
如何在人工智能时代迎接“奥本海默时刻”的到来,需要全球智慧。
编译/潇湘晨报记者梁婷婷 综合央视