2024-04-11 17:15
以色列媒体近日曝光了以军使用一款名为“薰衣草”的人工智能程序在加沙狂轰滥炸的行为。综合来看,至少有三点足以让闻者惊出一身冷汗:
一是草率发动杀戮。据报道,以军轰炸加沙地带时,先使用AI生成杀戮名单,而在真正实施轰炸前,对每个被轰炸目标只会进行大约20秒的确认。也就是说,一个人的生死在20秒内就被AI决定了。
二是附带杀戮配额。据消息人士透露,以军提出,轰炸一名“哈马斯底层人员”,允许“连带杀死最多15到20名平民”;如果目标为“指挥官级别”,则可“连带杀死上百名平民”。
三是炸弹贵过人命。报道称,在针对“薰衣草”系统标记的“低级别武装分子”进行轰炸时,以军“更倾向于使用非制导武器”,而非精确制导炸弹。这样势必会造成更多伤亡,但以方官员称,“不能将昂贵的炸弹浪费在不重要的人身上”。
对于这些骇人听闻的内容,以色列国防军予以否认,并在一份声明中表示,“信息系统只是分析人员在识别目标过程中的工具。”真相究竟如何,我们暂且不得而知。
近些年,AI技术迅猛发展,给许多行业带来了新的想象,军事领域也不例外。比如,OpenAI在今年初悄悄修改了有关禁止其AI技术用于军事用途的禁令措辞,五角大楼则成立了分析生成式AI如何用于国防领域的专门机构。从一定意义来讲,AI可以帮助指挥官更高效地进行信息筛选,可以通过模拟复杂的战场环境降低士兵的训练成本,等等。但上述针对以军的爆料,无异于一记警钟,那就是如何避免AI被大规模、无节制应用,成为杀戮的利器、作恶的帮凶?
人类战争不同于动物野蛮的本能发泄,要受到理性的约束。这个“理性”,就是指哪怕在残酷、暴力的战争中也要坚守人类的底线、人性的良知。不论技术如何进步,我们都可以明确,生与死的决定不应该委托给冰冷的算法。
2023年的一场峰会上,中国等60多个国家代表呼吁紧急制定人工智能(AI)国际规则,并成立一个全球委员会,以明确AI在战争中的用途,并制定一些指导方针。这样的设想其实很有现实意义,但这份联合声明不具法律约束力。如今看来,有必要多一些这样的理性对话,并以务实行动将共识落地。
随着科技发展,人类战争的形态经历着从枪炮战争到信息精确制导+核威慑战争的迭代。当威慑力、破坏力水涨船高,原则与底线也必须与时俱进。AI的军事化方兴未艾,它将带来生存还是毁灭,取决于人类采取集体克制行动的能力。