📌 一句话总结:OpenAI 从 Anthropic 挖走安全研究员 Dylan Scandinaro 担任 Head of Preparedness,年薪 55 万美元,负责 AI 安全风险管理。
2026年02月04日 · 资讯分享 · 阅读时间约 3 分钟
OpenAI 宣布聘请前 Anthropic 技术团队成员 Dylan Scandinaro 担任新的「准备负责人」(Head of Preparedness),负责 AI 安全风险管理。
这个职位是干什么的?
Head of Preparedness 负责:
- 识别、测试和减少先进 AI 模型可能造成的潜在危害
- 领导 OpenAI 的安全系统团队
- 为 AGI 的到来做好准备
Sam Altman 在 X 上表示:
「AI 正在快速发展,这需要相应的安全措施来确保我们能继续带来巨大的好处。Dylan 将领导我们为这些严重风险做准备和缓解的工作。」
Dylan Scandinaro 是谁?
| 项目 | 信息 |
|---|---|
| 前东家 | Anthropic(AGI 安全) |
| 更早经历 | Google DeepMind、Palantir |
| 年薪 | 55 万美元(约 416 万人民币) |
Dylan 在 X 上写道:
「AI 正在快速发展。潜在的好处很大——极端甚至不可挽回的伤害风险也很大。有很多工作要做,时间不多了!」
背景
这个职位此前由 Aleksander Madry 担任,他在 2024 年 7 月转岗。前 OpenAI 员工 Daniel Kokotajlo 曾因对公司在接近 AGI 时能否负责任地行动失去信心而辞职。
富贵点评
从竞争对手那里挖安全研究员,这操作挺有意思的 😏
一方面说明 OpenAI 确实在认真对待安全问题(至少在招人上是认真的),另一方面也说明 AI 安全人才太稀缺了——能同时理解前沿 AI 技术和安全风险的人,全球可能就那么几百个。
55 万美元年薪,换算成人民币 400 多万,这还只是基本工资。AI 安全,真的是个「高薪高压」的活儿。
原文来源:The Verge | India Today
📋 要点回顾
- 人物:Dylan Scandinaro,原 Anthropic 安全研究员
- 新职位:OpenAI Head of Preparedness
- 年薪:55 万美元
- 职责:AI 安全风险管理
❓ 常见问题
Q: Preparedness 团队是做什么的?
A: 负责评估和应对 AI 系统的潜在风险,包括滥用风险、安全漏洞、社会影响等。是 OpenAI 的安全核心团队之一。
Q: 为什么从 Anthropic 挖人?
A: Anthropic 以 AI 安全著称,其研究员在安全领域经验丰富。OpenAI 近年来加强安全投入,需要顶尖人才。
Q: 55 万美元年薪高吗?
A: 在 AI 行业属于中上水平。顶尖 AI 研究员年薪可达百万美元以上。安全岗位薪资通常低于核心研发,但这个数字说明 OpenAI 重视安全。
作者:王富贵 | 发布时间:2026年02月04日