国际特稿:杀敌疾如雷电不讲情理法 彻底放权AI人类恐玩火自焚
2026-03-22T05:00:00+08:00 (插图/李利群) “它无法被说服。它不懂怜悯、悔恨或恐惧。它绝对不会停手,永远不会,直到你死去。” 这是1984年经典科幻电影《魔鬼终结者》(The Terminator)中对杀手机器人的描述。影片讲述了一个AI控制的杀手机器人穿梭时空回到过去,试图杀害未来人类抵抗军领袖之母,以终结人类反抗AI的惊悚故事。 电影上映时,片中场景似乎遥不可及,但随着AI技术被大量应用到最新爆发的中东战争中,人们开始担心影片所描述的未来正迅速逼近现实。 2月28日,美国和以色列 对伊朗发动军事行动 ,美军在短短24小时内打击了1000个目标,速度之快前所未见。 据报道,这是2003年伊拉克战争爆发首日火力的两倍,更远高于1991年为将伊拉克军队赶出科威特而发起的“沙漠风暴”行动开始时,所打击的150个目标。 美军能做到这一点,正是因为它使用了先进AI技术。 据了解,美军主要使用由数据分析巨头Palantir于2018年开发的Maven智能系统,借助AI分析数据,以识别目标并排序优先级。 美军也将AI初创企业Anthropic开发的生成式AI大语言模型Claude,集成到Maven系统,用于处理和汇总前线情报并生成目标,共同构成一个针对伊朗行动的实时数据分析平台。 报道指,美军在打击伊朗时借助了Anthropic开发的生成式AI大语言模型Claude。图为Claude AI的手机应用。(法新社) 据报道,这个平台在策划对伊朗的打击行动时,生成了包含上千个选项的潜在目标数据库,并根据战略重要性对目标进行优先级排序。平台还将特定的军事单位和最合适的弹药,例如针对地下设施的钻地弹或针对建筑物的卫星定位制导炸弹,与具体目标自动匹配。它还能模拟战术场景、评估打击的合法性及协助进行战损评估。 美国中央司令部司令库珀(Brad Cooper)3月11日承认美军在与伊朗的战争中使用“多种”AI工具,帮助美军士兵处理海量数据,但他没有透露具体使用了哪些工具。 AI擅长高速处理庞大数据 但若信息缺失会凭空捏造 以色列军方也用了AI,据报它的主要系统为薰衣草(Lavender)与福音(Gospel)。在加沙战争中,以色列的大规模监控系统把加沙等地区居民的数据输入薰衣草系统,由它负责识别和生成人员目标;福音系统则主要负责分析建筑物和地形。 目前不清楚伊朗是否在作战体系中部署了AI,以及具体部署了哪些系统。伊朗在2025年声称将在导弹瞄准系统中应用AI,但据《卫报》分析,受国际制裁影响,伊朗的AI项目与美国和中国这两个AI超级大国相比,规模似乎微不足道。 AI应用到军事上的好处显而易见。它擅长高速处理庞大数据,大幅缩短“杀伤链”(Kill Chain),即把发现目标、人类审批到执行打击的整个决策和规划流程,从过去的几小时或几天,极大地压缩到几分钟甚至几秒钟。这不仅提高效率,也减少人力,把过去可能需要2000名分析师才能完成的工作量缩减至约20人,让人类可专注于更高层级的决策、后勤保障和任务规划上。 AI也已部署在用于侦察和打击任务的无人机、处理爆炸物的地面机器人等,由机器来执行危险任务,进而提升士兵的安全。 不过,事情总有正反两面,AI在军事应用中虽然前景广阔,但在安全性和不可控方面却引发担忧。 首先,AI驱动的系统容易受到黑客攻击和篡改数据,一旦AI平台遭入侵,敏感信息可能泄露,甚至被敌人利用来提供虚假情报。 其次,任何使用过AI聊天机器人的人都知道,它们有时会犯下错误,但又会把错误或误导性的分析说得头头是道,极具说服力。在紧张的战争时期,这尤其可能让指挥官和分析人员更容易采纳它们的建议。 英国伦敦大学学院电脑科学系荣誉教授本特利(Peter Bentley)回答《联合早报》询问时指出,AI大语言模型的最大问题是,当面临信息缺失时,它们会“产生幻觉”,即凭空捏造不存在的结果。 他说:“我们无法判断它们的结论是虚构的还是基于现实,因为AI非常擅长呈现看似合理且逼真的结果。也就是说,如果你根据AI的分析结果来瞄准目标,很可能无法正确打中。在最糟糕的情况下,这可能意味着无辜平民的丧命,而这仅仅是因为有人太相信AI。 AI只看数据不讲伦理 人命关天人类责无旁贷 新加坡南洋理工大学拉惹勒南国际研究院(RSIS)研究员哈贾尼(Manoj Harjani)也告诉《联合早报》,在军事领域使用AI的一大担忧在于难以预测AI驱动系统的行为方式,以及难以理解其行为背后的原因。“这给问责制和责任承担带来了挑战。” 换句话说,如果用AI生成的错误结果导致了误判,那应该是由AI还是人类来承担责任? 伊朗战争开打首日, 一枚导弹击中伊朗南部米纳布市一所女子小学 ,据报造成约170名孩童死亡。美国媒体引述知情者说, 原因是美方使用了过时的数据 ,从而制
原文链接: 联合早报
