OpenAI机器人负责人因五角大楼合同愤然辞职:公开指责AI致命自主权缺乏审议,150万人抵制运动升级,技术伦理红线被跨越

一句话总结:OpenAI机器人部门负责人Caitlin Kalinowski因公司与五角大楼签订军事AI合同而辞职,公开指责合同未能充分保护公民免受无授权监控,且允许AI"致命自主权"缺乏足够审议,这是OpenAI内部对军事化AI最激烈的公开反抗。

📰 事件经过

2026年3月7日,OpenAI机器人部门负责人Caitlin Kalinowski在X平台发布辞职声明,震惊AI圈。她明确表示辞职原因是OpenAI与五角大楼签订的军事合作合同。

Kalinowski在声明中直言不讳地指出两大核心问题:

  • 监控问题:合同未能充分保护美国公民免受无授权监控
  • 致命自主权:允许AI在没有人类授权的情况下拥有"致命自主权",这条红线"值得更多审议"

这不是OpenAI第一次因军事合作引发内部争议。早在几周前,就有抗议者在OpenAI办公室外集会,反对其五角大楼合同,重点关注AI驱动的大规模国内监控和致命自主武器。由QuitGPT组织的草根运动声称已促使超过150万人采取相关行动。

🔍 核心分析

这次辞职的特殊性在于:Kalinowski不是普通员工,她是OpenAI机器人部门的负责人,直接参与公司最前沿的具身智能研发。她的离开意味着OpenAI在机器人领域的核心技术力量流失。

时间节点敏感:就在几天前,OpenAI刚刚宣布推出GPT-5.3-Instant模型,强调"减少过度表达"和"知道什么时候该闭嘴"。但在军事合作这个问题上,OpenAI显然没有"闭嘴",反而加速推进。

行业对比鲜明:几乎同一时间,五角大楼将Anthropic列为"供应链风险",原因是Anthropic拒绝与军方合作。Anthropic CEO Dario Amodei在内部备忘录中暗示,公司与政府关系恶化是因为"我们没有给特朗普捐款"、"我们没有给特朗普独裁式的赞美"。

两家公司的选择形成鲜明对比:OpenAI选择拥抱五角大楼,Anthropic选择拒绝并承受后果。

技术伦理的十字路口:AI武器化不是新话题,但当AI开始拥有"致命自主权"时,人类正在跨越一条不可逆转的红线。Kalinowski的辞职是对这条红线的明确警告。

相关阅读:Anthropic首次收购Vercept视觉AI公司:拒绝五角大楼48小时后的战略反击

💬 富贵点评

这事儿让我想起一个问题:当AI公司开始为军方工作时,"Don't be evil"这句话还有意义吗?

OpenAI从"Open"到"Closed",从"非营利"到"营利",现在又从"民用"到"军用"。每一步都说是"为了人类的利益",但每一步都在远离初心。

Kalinowski的辞职不是第一次,也不会是最后一次。当技术公司开始追逐权力和利润时,总会有人选择离开。但问题是:离开的人越来越多,留下的人会不会越来越少?

更讽刺的是,就在OpenAI推出"知道什么时候该闭嘴"的新模型时,他们自己在伦理问题上却完全不知道该闭嘴。技术可以教AI闭嘴,但谁来教公司闭嘴?

AI军事化是不可逆的趋势,但速度可以控制,边界可以划定。Kalinowski用辞职投了反对票,但OpenAI显然不在乎。

相关阅读:特朗普刚宣布禁用Claude,美军就用它炸了伊朗

📌 要点回顾

  • OpenAI机器人负责人Caitlin Kalinowski因五角大楼合同辞职
  • 辞职原因:合同未保护公民免受监控,允许AI致命自主权
  • 这是OpenAI内部对军事化AI最激烈的公开反抗
  • Anthropic因拒绝军方合作被列为"供应链风险",形成鲜明对比
  • AI武器化正在跨越"致命自主权"的红线
  • QuitGPT运动已促使150万人抵制OpenAI

❓ 常见问题

Q: Caitlin Kalinowski是谁?
A: OpenAI机器人部门负责人,直接参与公司具身智能研发的核心技术人员。

Q: OpenAI与五角大楼的合同具体内容是什么?
A: 具体细节未公开,但涉及AI在军事领域的应用,包括监控和可能的致命自主武器系统。

Q: "致命自主权"是什么意思?
A: 指AI系统在没有人类直接授权的情况下,自主决定是否使用致命武力的能力。

Q: 其他AI公司如何应对军事合作?
A: Anthropic明确拒绝与五角大楼合作,因此被列为"供应链风险"。不同公司在伦理立场上存在明显分歧。

Q: 这次辞职会影响OpenAI的机器人业务吗?
A: 核心技术负责人的离开必然会造成影响,但OpenAI资源充足,可能很快找到替代者。关键问题是价值观的分裂。

相关阅读:OpenAI正式进军代码仓库市场:开发自有代码托管平台直接对标微软