世界文化遗产伊朗“玫瑰宫”在美以空袭中受损 本版图片 IC
伊朗首都德黑兰的阿扎迪体育场被炸毁
加沙地带一处帐篷营地遭以军袭击
“幻影MK-1”机器人
文/本报记者 齐旭 实习生 晁晶
美国和以色列发起军事行动以来,伊朗权力核心接连遭遇定点打击。先是最高领袖哈梅内伊,而后是最高国家安全委员会秘书拉里贾尼、情报部长哈提卜,再到伊斯兰革命卫队海军司令坦格西里、军方石油部门负责人埃沙基等。
一连串精准而高频的“斩首行动”背后,一个隐蔽的变化正在发生:情报处理与作战决策的节奏被人工智能(AI)大幅压缩。这不仅改变了战争效率,也将伦理、责任与技术边界问题推至前台。
“杀伤链”闭合加速
“我们对德黑兰的了解程度就像对耶路撒冷一样。”一名以色列情报官员在以军完成击杀哈梅内伊的行动后这样说道。
在哈梅内伊遇害前,以色列情报部门就已深度渗透伊朗首都德黑兰的监控网络。通过入侵交通监控摄像头,结合AI算法分析,以军对伊朗政权核心人物的生活轨迹了如指掌,为后来的军事行动收集并建立起一套完备的敌方行动资料。
掌握足够的情报只是基础,真正改变“游戏”规则的是收到情报后的决策速度。“仅仅60秒。”曾负责以色列情报机构摩萨德下属反恐部门的艾拉姆表示,“现代战场不再仅仅由坦克和飞机构成,还取决于数据、获取渠道、信任和时机。一分钟就能改变一个地区的格局。”
在筹备多年的精密计划与AI系统的协同下,此次军事行动呈现出前所未有的速度与效率。据新华社报道,在行动最初24小时内,美军就在AI协助下打击了伊朗境内超过1000个目标。截至3月25日,据美军中央司令部司令库珀称,这一数字已经突破1万。
是什么按下了战事的“快进键”?答案指向美国帕兰蒂尔公司开发的“梅文智能系统”战场情报平台。这一平台嵌入了AI初创企业Anthropic公司研发的生成式AI模型“克劳德”,用于情报数据分析、目标识别与优先级排序。借助该模型,只要20个人就可以完成2000人才能完成的任务。
从日常出行路线、工作时间、会面对象、作息规律到随行人员的身份信息,AI建立起一套精密的行为预测模型。当哈梅内伊的生活模式被拆解为算法可读、可预测的参数,在以色列看来,他就不再是不可触及的目标。
战事开始后的短短二十天内,伊朗官方接连确认了十多名军政核心高官的殉职。在这份名单背后,AI扮演的角色已不再是“辅助工具”,而是深度参与从情报筛选到目标确认的每一个环节,让“杀伤链”的闭合速度越来越快。
其实,类似的场景在更早的加沙战场上就已上演。“爸爸在哪儿”可不是什么亲子真人秀节目,而是一款可以追踪目标并在目标回家时向以军发出警报的AI追踪系统。该系统与用于识别潜在激进分子的“薰衣草”系统搭配,成为以军定点打击哈马斯武装人员的“利器”。“但荒谬的是,你会发现被杀死的绝大多数是妇女和儿童。”消息人士说。
再将时间轴拉至被称为“第一场AI战争”的俄乌战场,AI的作用同样经历了质变:从最初的无人机辅助作战,到最近惊现搭载高级AI的“幻影MK-1”持枪机器人。这款由美国公司研发、身高1.8米、体重80公斤的机器人可负重20公斤,行军速度与人类步兵相当,能够快速评估战场环境并作出自主决策。
战争的“杀伤链”正在被算法重新定义,这也折射出AI军事化进程中的更深层次问题:究竟如何看待技术被嵌入战争机器、AI深度介入战争决策?面对个别强势政府,科技企业能否守住伦理底线?
AI公司立场分化
AI在战场上的角色不断变化,科技公司与政府之间的“合作共赢”也不再那么纯粹,利益、伦理与法律等诸多问题渐渐浮出水面。
OpenAI、谷歌、Anthropic等公司去年分别与美国国防部签署价值高达2亿美元的合同,将各自技术集成到五角大楼的军事系统中。然而,Anthropic的合作有其边界。“我最担心的是‘掌握按钮的人’太少,不需要其他人配合执行命令,一两个人就能操控一支无人机部队。”Anthropic联合创始人兼首席执行官阿莫迪在一篇文章中表示对AI应用于军事领域的顾虑。
在美国准备对伊朗展开军事行动前,Anthropic坚持其技术不应用于大规模监控或为自主致命武器提供动力,与五角大楼的合同谈判因此破裂。此后,因被五角大楼列为供应链风险企业,Anthropic对美国国防部提起诉讼,称相关决定侵犯其商业与言论权利,双方对峙迅速升级。
然而,并非所有科技公司都选择与军方保持距离。在上海政法学院东北亚研究中心副主任杨震看来,资本的贪婪加上帝国黩武的本性,会使高科技公司融入军工复合体中。“五角大楼大概率会利用资本的贪婪对这些科技公司进行内部瓦解,最终使它们重新与军方合作。”
“像Anthropic这样的科技公司想要独善其身是不可能的。”北京亦庄人工智能研究院执行院长房超认为,当技术的强大能力被世界“看见”,它就难以与国防和国家安全脱离。核能被发现之初,许多科学家曾坚决反对其军事化,但最终它仍被投入战场。“尤其是在美国,类似案例一定会再度发生。”
果然,就在美国国防部长赫格塞斯宣布Anthropic构成供应链风险的同一天,OpenAI与美国国防部达成协议,允许其技术用于机密军事系统。谷歌旗下AI企业DeepMind全球事务副总裁汤姆·卢也表示,公司已于2025年更新AI原则,将2018年许下的“不使用谷歌技术开发武器或用于监视目的”的承诺删除。
在利润丰厚的国防合同面前,美国科技公司纷纷调整政策,将曾经为技术应用划定的伦理红线“挪走”,重新开放与军方的合作空间。这不禁让人思考:科技公司如何能一边与五角大楼合作,一边坚持安全原则?这不仅考验处于舆论风口的企业,也是全人类必须面对的共同难题。
拷问责任与安全
科技企业与政府的合作和纷争尚可诉诸法律、厘清责任,可当战场上“谁是目标”的决定权从人转移到算法手中,谁来为AI误判导致的平民伤亡负责?谁来监督AI的运行?怎样的监督才符合人道主义底线?这些问题关乎百姓的生命安全,拷问着人类的道德边界,也关系着当前的国际安全格局。
美军中央司令部司令库珀表示:“人类仍会对射击什么目标以及何时射击作出最终决定,但先进的AI工具可以将过去需要数小时甚至数天才能完成的过程缩短到几秒钟。”
然而,人类作出最终决定,就能代表人类是战争的“真正主导者”吗?
有消息人士表示,在加沙战场上,看似由人类操作员最终确认作出的轰炸决定,其实是由算法作出的,人类只是扮演最后一个环节中形式上的确认者,仿佛一枚无实质决策权的“橡皮图章”。因为在确认轰炸前,以军操作人员只会花约20秒查看目标。这20秒里,他们确认的仅仅是AI标记的目标性别。
更令人难以置信的是,以军明知AI系统有约10%出错率,偶尔还会将与武装组织只有松散联系甚至毫无联系的人标记在名单上,却仍对其提供的目标名单高度依赖。此外,AI系统从发出警报到实施轰炸之间存在时间差,以军是否会在此期间核实目标的变化?答案恐怕是否定的。
“有一次我们了解到目标人物晚上在家,于是在凌晨轰炸了那栋房屋。”一名消息人士说,“但事后发现,目标人物早已带着家人搬到了别处,而我们轰炸的那栋楼里还住着另外两户有孩子的家庭。”
AI系统导致的平民伤亡早已不胜枚举,责任归属却难以界定。在整条决策链上,该负责的究竟是谁?
在杨震看来,在人工审核环节被大幅压缩的情况下,“人类在环”正被弱化。“目前法律在这一领域几乎还是空白,这无疑会引发巨大的伦理问题。当前出现的不幸事件必须从法律、技术以及政治等多个层面采取措施加以制止,否则后果不堪设想。”
“在AI面前,人类是否还具备真正的判断能力?”房超直指一个更核心、更值得深思的问题。在他看来,AI系统判断的阈值标准就像瓶盖,是拧紧还是拧松,归根结底由人类调节。在某种意义上,它其实就是人类的一面镜子,照出的看似是人类使用AI的方式,实则是人类对待生命的方式。“如果人类无法通过这面镜子审视自我,不愿承担战争的责任,那战争的罪恶就会变得没有止境。”
除此之外,AI军事化带来的治理难题也让人们对未来的国际战略格局、力量平衡及发展趋势深感忧虑。
房超从战略平衡角度进一步指出,AI在战场上正从最初的辅助作用转变为不可替代的核心力量。“我们面临两种可能:第一种是过去的核战略平衡被AI打破,形成‘AI+核’的新战略平衡;第二种则是纯粹由AI产生的独特战略平衡。”
当“杀伤链”的闭合被算法加速、人类决策被压缩为20秒的“盖章”形式,这场军事变革最终拷问的不是技术,而是人类能否守住最后的防线。