OpenAI内部人士质疑CEO山姆·阿尔特曼的可信度
Ars Technica AI··作者 Ashley Belanger
关键信息
阿尔特曼据报道告诉员工,他与传统的AI安全文化‘格格不入’,这导致大量安全研究人员离职——其中许多人后来创立了Anthropic公司。他还驳回了员工对五角大楼合同的担忧,称他们不应干涉地缘政治决策。
资讯摘要
就在OpenAI发布政策建议呼吁政府在超级智能发展中优先考虑人类福祉的同一天,《纽约客》发表了一篇基于100多次采访和内部文件的深度报道,聚焦CEO山姆·阿尔特曼。尽管OpenAI声称透明且致力于防止灾难性AI风险,但内部人士却描述阿尔特曼为操纵性强、前后不一且对后果漠不关心的人。
他关于自己不适合安全文化的言论解释了为何顶尖安全研究人员纷纷离开OpenAI——这一举动最终促成了Anthropic的成立。阿尔特曼立场的反复变化,比如2019年反对发布GPT-2,但后来又免费提供功能强大得多的模型,进一步加剧了员工和公众的疑虑。

资讯正文
标题:问题在于山姆·阿尔特曼:OpenAI内部人士不信任CEO
就在OpenAI发布政策建议以确保超级智能实现时人工智能能造福人类的同一天,《纽约客》刊登了一篇重磅调查,质疑CEO山姆·阿尔特曼是否真的会兑现OpenAI最重要的承诺。
将这两篇报道并列阅读会令人感到困惑。
一方面,OpenAI表示计划推动政策,确保在人工智能开始‘超越最聪明的人类(即使这些人借助AI)’时始终‘以人为本’。为实现这一目标,公司承诺保持‘清醒和透明’,承认其中的风险包括监测极端情况,例如AI系统脱离人类控制,或政府利用AI破坏民主。OpenAI警告称,若不适当缓解这些风险,‘人们将受到伤害’,随后描述了为何公众可以相信该公司有能力倡导一个超级智能实现后能让‘所有人生活质量提升’的未来。
另一方面,《纽约客》采访了超过100位了解阿尔特曼商业风格的人士,并查阅了内部备忘录,还与阿尔特曼本人进行了超过12次访谈。这篇报道提供了详尽的反驳观点,解释了为何公众可能难以信任OpenAI的CEO能够‘掌控人工智能的未来’,无论公司愿景看起来多么美好。
总体而言,内部人士描绘出阿尔特曼是一个讨好型人格的人,他告诉别人他们想听的话,同时暗中追求权力,据称始终以自我利益为先。一位董事会成员如此总结阿尔特曼:‘他拥有两种几乎不可能出现在同一个人身上的特质。第一种是对取悦他人、在每次互动中获得好感的强烈渴望;第二种几乎是反社会的、对欺骗他人可能带来的后果毫不关心。’
来源与参考
收录于 2026-04-07