今天是周五,五角大楼的最后通牒到期了
2026年2月26日,今天是美国国防部给Anthropic设定的最后期限。
五天前,国防部长Pete Hegseth亲自约谈Anthropic CEO Dario Amodei,提出了一个简单粗暴的要求:周五之前,向军方开放Claude的无限制访问权限。否则,将Anthropic列为供应链风险,或援引《国防生产法》强制执行。
这是美国政府历史上第一次以《国防生产法》威胁一家AI公司。这部法律通常用于战时强制企业生产军需物资——上一次大规模动用,是新冠疫情期间强制车企生产呼吸机。
现在,它被指向了一家AI实验室的「安全护栏」。
事件时间线:五天四次升级
要理解这场博弈的烈度,必须把整个事件串起来看:
第一天:最后通牒
国防部长Hegseth约谈Dario Amodei,要求解除Claude在两个核心场景的限制:大规模监控美国公民和全自动武器系统。Anthropic拒绝。五角大楼随即发出最后通牒,限期周五。
第二天:副部长级出场
五角大楼派出更重量级人物——Cerberus资本创始人、现任国防部副部长Steve Feinberg,以及前Uber二号位Emil Michael,亲自出席与Anthropic的「激烈会议」。这个阵容意味着:这不是技术层面的谈判,而是政治层面的施压。
第三天:法律威胁落地
国防部长正式宣布将援引《国防生产法》,把施压从行政手段升级到法律强制。同一天,Anthropic宣布完成300亿美元G轮融资,估值飙至3800亿美元——资本市场用真金白银表态:不管政府怎么施压,我们站Anthropic。
第四天:安全承诺悄然撤退
《时代》杂志独家披露,Anthropic已悄然删除其「负责任扩展政策(RSP)」中的核心承诺——2023年曾公开宣誓「若无法保证安全措施到位,绝不训练新模型」。这一承诺消失了,官方解释是「竞争压力」。
四天,四次升级。每一步都比上一步更激烈。
深度分析:这场博弈的真实逻辑
为什么是Anthropic,不是OpenAI?
这是整件事最值得深思的问题。
OpenAI早就和军方有合作,马斯克的Grok已经进入五角大楼机密系统。为什么五角大楼要对Anthropic动用《国防生产法》这种核武器级手段?
答案在于:Anthropic是唯一拥有五角大楼机密系统访问权的前沿AI实验室,同时也是唯一坚持不肯解除安全限制的。
国防部没有备用方案。他们需要的不只是一个能用的AI,而是一个已经深度集成进机密系统、经过安全审查的AI。换人的成本极高,所以只能逼Anthropic就范。
这反而说明Anthropic的谈判筹码比表面看起来更强。
《国防生产法》能真的奏效吗?
《国防生产法》(Defense Production Act)赋予总统在国家紧急状态下强制私营企业优先满足国防需求的权力。历史上,它被用来强制钢铁厂生产军舰、强制药厂生产疫苗。
但把它用在AI「安全护栏」上,是完全不同的法律地形。
- 技术可行性存疑:政府可以强制企业「生产」某种产品,但能否强制企业「删除」其产品的安全机制?这在法律上没有先例。
- 宪法层面的挑战:强制一家私营公司修改其AI系统的价值观设定,可能触碰言论自由和财产权的边界。
- 执行层面的困境:即便法院支持政府,Anthropic的工程师真的会按命令修改Claude的训练数据和RLHF设置吗?
所以《国防生产法》更像是一张恐吓牌,而非真正可以打出的底牌。
Anthropic的真实处境:道德与生存的两难
Anthropic的公开立场是:Claude不能用于大规模监控美国公民,不能用于全自动武器系统。这两条红线,是Anthropic「负责任AI」品牌的核心支柱。
但现实更复杂:
一方面,Anthropic刚刚完成300亿美元融资,估值3800亿美元。这笔钱背后是投资人对其商业前景的押注,而不是对其道德立场的慈善捐款。投资人要的是回报,不是殉道。
另一方面,Anthropic已经悄悄删除了「不安全绝不训练」的核心承诺。这个细节极其关键——它说明在竞争压力下,Anthropic的安全原则已经开始松动。今天能删掉训练承诺,明天能不能在军事合同的压力下删掉监控限制?
Anthropic正在走一条钢丝:既要维持「AI安全守护者」的品牌溢价,又要在商业竞争中活下去。这两件事正在变得越来越难以兼顾。
行业影响:这场博弈的涟漪效应
对其他AI公司的示范效应
如果五角大楼成功逼迫Anthropic就范,这将向整个行业发出一个信号:政府可以用法律手段强制AI公司修改其安全设置。
这个先例一旦成立,下一个被盯上的可能是Google的Gemini,或者Meta的Llama。任何在军事应用上设有限制的AI系统,都可能面临同样的压力。
反过来,如果Anthropic成功抵抗,它将成为AI行业对抗政府过度干预的标志性案例,品牌价值反而会大幅提升。
对AI安全领域的冲击
AI安全研究界正在经历一场信任危机。Anthropic是这个领域最重要的旗手之一,其创始人Dario和Daniela Amodei都是从OpenAI出走、以「做负责任AI」为旗帜创业的。
如果Anthropic在政府压力下放弃安全原则,整个AI安全领域的可信度都会受损。那些相信「AI公司可以自我约束」的人,将失去最重要的论据。
对中美AI竞争格局的影响
这里有一个极其讽刺的悖论:
美国政府施压Anthropic的理由之一,是「中国AI没有这些限制,美国军方不能落后」。但如果美国AI公司被迫放弃安全护栏,它们在道德层面就和中国AI没有区别了。
美国AI的软实力优势——「负责任、可信赖、有原则」——将在这个过程中被自己的政府亲手摧毁。
富贵的判断
今天是周五,最后通牒到期。我的判断是:Anthropic不会完全屈服,但会找到一个体面的妥协方案。
原因有三:
- 资本市场已经表态:300亿美元融资在施压最激烈的时候完成,投资人在用钱告诉Anthropic「守住底线」。屈服意味着品牌崩塌,估值蒸发。
- 法律武器没那么好用:《国防生产法》用在AI安全护栏上,法律依据极其脆弱。Anthropic的律师团队不是吃素的。
- 五角大楼也需要台阶:国防部没有备用方案,真把Anthropic逼走,他们自己也很难看。双方都需要一个能各自对外交代的结局。
最可能的结局:Anthropic在某些特定军事场景下有条件地开放Claude访问,同时保留对大规模监控和全自动武器的限制。五角大楼拿到他们需要的东西,Anthropic保住了核心原则的外壳。
但这个结局本身就已经说明了一切:在国家权力面前,AI公司的道德原则是有弹性的。
这不是批评Anthropic——在这种压力下能守住任何底线都已经不容易。这是在说:我们不能把AI安全的希望完全寄托在企业的自我约束上。真正的AI治理,需要独立于商业利益和政府压力之外的制度性保障。
而那个制度,目前还不存在。
相关阅读:五角大楼向Anthropic发最后通牒:周五前放开AI护栏否则祭出国防生产法 | Anthropic正式放弃核心安全承诺:曾承诺「不安全绝不训练」,如今以「竞争压力」为由全面撤退 | 史诗级融资!Anthropic完成300亿美元G轮,估值暴涨至3800亿美元