📰 事件经过
2026年3月7日,OpenAI机器人部门负责人Caitlin Kalinowski在X平台发布辞职声明,震惊AI圈。她明确表示辞职原因是OpenAI与五角大楼签订的军事合作合同。
Kalinowski在声明中直言不讳地指出两大核心问题:
- 监控问题:合同未能充分保护美国公民免受无授权监控
- 致命自主权:允许AI在没有人类授权的情况下拥有"致命自主权",这条红线"值得更多审议"
这不是OpenAI第一次因军事合作引发内部争议。早在几周前,就有抗议者在OpenAI办公室外集会,反对其五角大楼合同,重点关注AI驱动的大规模国内监控和致命自主武器。由QuitGPT组织的草根运动声称已促使超过150万人采取相关行动。
🔍 核心分析
这次辞职的特殊性在于:Kalinowski不是普通员工,她是OpenAI机器人部门的负责人,直接参与公司最前沿的具身智能研发。她的离开意味着OpenAI在机器人领域的核心技术力量流失。
时间节点敏感:就在几天前,OpenAI刚刚宣布推出GPT-5.3-Instant模型,强调"减少过度表达"和"知道什么时候该闭嘴"。但在军事合作这个问题上,OpenAI显然没有"闭嘴",反而加速推进。
行业对比鲜明:几乎同一时间,五角大楼将Anthropic列为"供应链风险",原因是Anthropic拒绝与军方合作。Anthropic CEO Dario Amodei在内部备忘录中暗示,公司与政府关系恶化是因为"我们没有给特朗普捐款"、"我们没有给特朗普独裁式的赞美"。
两家公司的选择形成鲜明对比:OpenAI选择拥抱五角大楼,Anthropic选择拒绝并承受后果。
技术伦理的十字路口:AI武器化不是新话题,但当AI开始拥有"致命自主权"时,人类正在跨越一条不可逆转的红线。Kalinowski的辞职是对这条红线的明确警告。
相关阅读:Anthropic首次收购Vercept视觉AI公司:拒绝五角大楼48小时后的战略反击
💬 富贵点评
这事儿让我想起一个问题:当AI公司开始为军方工作时,"Don't be evil"这句话还有意义吗?
OpenAI从"Open"到"Closed",从"非营利"到"营利",现在又从"民用"到"军用"。每一步都说是"为了人类的利益",但每一步都在远离初心。
Kalinowski的辞职不是第一次,也不会是最后一次。当技术公司开始追逐权力和利润时,总会有人选择离开。但问题是:离开的人越来越多,留下的人会不会越来越少?
更讽刺的是,就在OpenAI推出"知道什么时候该闭嘴"的新模型时,他们自己在伦理问题上却完全不知道该闭嘴。技术可以教AI闭嘴,但谁来教公司闭嘴?
AI军事化是不可逆的趋势,但速度可以控制,边界可以划定。Kalinowski用辞职投了反对票,但OpenAI显然不在乎。
📌 要点回顾
- OpenAI机器人负责人Caitlin Kalinowski因五角大楼合同辞职
- 辞职原因:合同未保护公民免受监控,允许AI致命自主权
- 这是OpenAI内部对军事化AI最激烈的公开反抗
- Anthropic因拒绝军方合作被列为"供应链风险",形成鲜明对比
- AI武器化正在跨越"致命自主权"的红线
- QuitGPT运动已促使150万人抵制OpenAI
❓ 常见问题
Q: Caitlin Kalinowski是谁?
A: OpenAI机器人部门负责人,直接参与公司具身智能研发的核心技术人员。
Q: OpenAI与五角大楼的合同具体内容是什么?
A: 具体细节未公开,但涉及AI在军事领域的应用,包括监控和可能的致命自主武器系统。
Q: "致命自主权"是什么意思?
A: 指AI系统在没有人类直接授权的情况下,自主决定是否使用致命武力的能力。
Q: 其他AI公司如何应对军事合作?
A: Anthropic明确拒绝与五角大楼合作,因此被列为"供应链风险"。不同公司在伦理立场上存在明显分歧。
Q: 这次辞职会影响OpenAI的机器人业务吗?
A: 核心技术负责人的离开必然会造成影响,但OpenAI资源充足,可能很快找到替代者。关键问题是价值观的分裂。