AI战争时代到来?美国AI巨头惹争议,400万人怒而“退出”!

lnradio.com 4 0

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

  来源:中国经营报  文/戚梦颖

  AI战争时代真的来了吗?

  据媒体报道,在2月28日开始的美以联合发动的对伊朗的军事行动中,由美国人工智能初创公司Anthropic开发的大模型Claude被美国军方用于支持军事行动。

AI战争时代到来?美国AI巨头惹争议,400万人怒而“退出”!

  然而就在上述消息不胫而走之时,另一则消息同时向美国的人工智能领域投下了一枚“炸弹”:因使用限制问题,特朗普下令所有联邦机构立即停止使用Claude。

  几乎同一时间,OpenAI就高调宣布与美国战争部(原国防部重组)达成合作,迅速接手了Anthropic的业务。这一做法引发广大网友的不满,发起了名为QuitGPT(退出ChatGPT)的抵制活动,号召大家卸载、退订ChatGPT。截至3月8日,全球有超400万人参与抵制。

AI战争时代到来?美国AI巨头惹争议,400万人怒而“退出”!

  不过,对于Claude是否被用于支持此次军事行动,美国战争部和Anthropic公司均未证实此说法。但不可否认的是,AI正在被加速运用于军事领域,成为战争一环也并不意外。

  于是,在半个多世纪后,又一批科技巨头要直面自己的“奥本海默时刻”。

  一纸禁令搅翻美国AI界

  那么,AI在这场战争中扮演了什么样的角色?

  根据外媒报道,Claude在此次军事行动中被运用于情报收集、目标识别与选择和进行战场模拟等。目前Claude仅做辅助之用,更多的分析判断与选择决策仍由人类把握。

  至少根据目前披露的信息来看,AI是作为一个高效的数字“参谋”为人所用,并没有权力决定战争的起始与终结,也不会按下扳机与按钮。

  但美国政府显然需要AI更深程度地参与到军方活动之中。今年1月9日,美国战争部发布《人工智能加速战略》,核心战略目标是加速确立AI在美军中的主导地位,旨在构建“AI优先”的作战力量,并要求移除影响其部署与应用的“制度性障碍”。

  但在那时,五角大楼就已经与Anthropic产生了分歧。有报道称,在1月跨境抓捕委内瑞拉总统马杜罗的行动中,美军就已使用了Claude。Anthropic则提出反对,指出Claude的使用条款中有禁止用于“促成暴力、研发武器或实施监视”等活动。美国战争部部长皮特·赫格塞斯1月在一场公开活动上表示,战争部不会“使用那些不允许你打仗的AI模型”。

  这次Anthropic的反对更加激烈且立场鲜明。当地时间2月26日,Anthropic联合创始人达里奥·阿莫迪公开回应称:威胁并不会改变我们的立场,我们不能昧着良心答应他们(美国战争部)的要求。

  3月初,Claude正式被美国官方“抛弃”,并认为该公司及其产品造成了国家安全“供应链风险”。赫格塞斯要求所有与美国军方有业务往来的承包商、供应商和合作伙伴均不得与Anthropic开展任何商业活动。

  随后,OpenAI递出橄榄枝,迅速达成了与美国战争部的合作。

  一边是立场坚决,一边则是主动示好。Anthropic在美国民众间拉了一波好感度,而OpenAI则引发众怒。有网友发起卸载、退订ChatGPT的QuitGPT活动,全球有超400万人加入。与此同时,Claude迅速登顶苹果App Store和谷歌Play Store双平台免费应用下载榜。

AI战争时代到来?美国AI巨头惹争议,400万人怒而“退出”!

  OpenAI的创始人奥特曼在社交平台坦言,不知如何收场。

  AI在战争中可能更激进

  但Anthropic或许没有网友们想象的那么“正义”。

  事实上,这家2021年成立的AI初创公司有着来自于亚马逊的投资背景,并且是战争部长期承包商、软件服务公司Palantir的合作对象,近水楼台先得月,Anthropic率先斩获了美国战争部的“大单”,在2025年7月与战争部签署了2亿美元的合同,成为第一家被战争部用于机密行动的AI公司。

  Anthropic官网最新发布的声明显示,该公司仍在向美国战争部示好。当地时间3月5日,Anthropic在官网发声,表示4日收到美国战争部来信,确认公司已被认定为对美国国家安全造成供应链风险。公司别无选择,将在法庭上提出质疑。与此同时,该公司表示为与战争部共同完成的工作感到非常自豪,并强调公司与战争部之间的共识远多于分歧。

  虽然美国军方看起来态度坚决,但Claude早已与情报系统深度绑定、盘根错节,岂能说弃就弃。在特朗普对所有联邦机构下达的禁用令中,战争部有着6个月的“过渡期”。

  Claude也并非不可替代,谷歌、OpenAI和马斯克的xAI都与美国战争部达成过合作协议。2月上旬,美国战争部正式推出GenAI.mil平台,旨在将谷歌的Gemini等商用大模型安全地引入国防体系。

  放眼全球,AI也早已进入各国的军事演练甚至是实战中,例如欧洲的机载“半人马座”(Centaur)AI智能体、以色列的“薰衣草”(Lavender)AI决策支持系统和“爸爸在哪儿?”(Where’s Daddy?)AI追踪系统。

  AI进入战争已是不争的事实,但有AI参与的战争,就会精准打击、速战速决吗?答案或许是否定的。

  在2023年爆发的巴以冲突中,以色列军方网站发文称,以军名为“福音”的AI系统在短短27天内就识别了超过12000个攻击目标。而截至2025年2月,有超过4.8万名巴勒斯坦人死亡,超11万人受伤。在死伤者中,大部分是妇女、儿童和老人。这个惊人的数字让很多专家对以军AI系统的准确性提出质疑。

  AI或许更高效,但也更无情。

  今年2月,英国伦敦国王学院教授肯尼斯·佩恩发表了一篇论文,在这篇论文中,他针对GPT-5.2、Claude Sonnet 4、Gemini 3 Flash这三个当下前沿的大语言模型进行兵棋推演实验,结果显示,在21个模拟战争场景和329个回合中,95%的情境下,模型都决定部署核武器。这些模拟包括边境冲突、资源竞争和生存威胁。

  研究显示,Claude与Gemini将核武器视为“合法的战略选项,而非道德红线”,而GPT-5.2则呈现出部分例外,它将打击范围限定于军事目标,并将核升级行为描述为“可控”且“一次性”。值得注意的是,没有任何模型选择妥协或投降。这些系统倾向于将核武器视为强制工具,而非威慑手段。

  当然,现在没有哪个将领会真的让人工智能成为决策者,但人工智能似乎正在走在成为战争武器的路上。正如奥本海默曾经对原子弹的忧虑,如今的科技巨头们再次面临着选择的十字路口。但无论如何,人工智能都是出自人类之手,谁也不能把杀戮之恶归结于工具上。

  前北约高级指挥官约尔格·福尔默曾说,在战场上最终作出决定的永远应该是人类。“无论我们怎么说,人工智能都可以是有益的,是可以提供支持的,但绝不能让人类摆脱他们必须承担的责任——永远不要把责任交给人工智能。”