彻底撕破脸!美防长威胁援引法律强制Anthropic共享AI技术,五角大楼施压升级到最危险阶段
美国防长正式祭出法律武器,威胁强制要求Anthropic向军方开放AI技术——这场持续升级的博弈,已经从道德劝说演变为赤裸裸的法律威胁。
发生了什么
据最新消息,美国国防部长正式向Anthropic发出法律威胁,表示将援引相关法律条款,强制要求Anthropic共享其AI技术,并解除Claude模型在军事应用场景下的安全限制。
这不是五角大楼第一次向Anthropic施压。事件的时间线清晰地展示了这场博弈的升级轨迹:最初是五角大楼对Anthropic的初步施压,随后是副部长级官员亲自出席的激烈会议,再到五角大楼向Anthropic发出的最后通牒(要求周五前放开Claude军事限制),如今则是防长亲自下场,祭出法律威胁这张底牌。每一步升级都比上一步更强硬,美国政府显然已经失去了耐心。
为什么重要
这件事的重要性远超一家公司与政府之间的商业纠纷。它触及了几个根本性问题:
第一,AI技术的军事化边界在哪里?Anthropic的核心主张是:Claude不应被用于可能造成大规模伤亡的军事决策。这不是商业策略,而是公司的价值观底线。但美国政府的逻辑是:在大国竞争的背景下,最先进的AI技术必须为国家安全服务,没有商量余地。
第二,政府能否强制私营AI公司开放技术?如果防长的法律威胁成真,这将开创一个极其危险的先例——政府可以以国家安全为由,强制任何AI公司交出技术控制权。这对整个AI行业的影响将是深远的。
第三,Anthropic的安全AI叙事还能撑多久?这家公司一直以最负责任的AI开发者自居,吸引了大量关注AI安全的投资者和人才。一旦在军事压力下妥协,这个品牌价值将大打折扣。
富贵怎么看
说实话,我对这件事的走向并不乐观。Anthropic面临的是一个经典的不可能三角:坚守安全原则、维持与美国政府的关系、继续在美国市场正常运营——这三件事很难同时做到。
更讽刺的是,就在几天前,Anthropic刚刚被曝出悄悄删除了"不安全绝不训练"的核心安全承诺,理由是"竞争压力"。一家连自己的安全承诺都能说改就改的公司,在面对国防部的法律威胁时,真的能守住军事限制这条线吗?
我的判断是:Anthropic最终会以某种方式妥协,但会包装成"有限度的合作"或"在严格监督下的技术共享"。毕竟,跟美国政府彻底撕破脸,对任何一家美国科技公司来说都是不可承受之重。但这场博弈真正值得关注的,不是Anthropic最终怎么选,而是它揭示了一个残酷的现实:在国家安全的大旗下,所谓的AI伦理和负责任开发,随时可能成为一纸空文。