OpenAI Codex 系统提示禁止提及哥布林

Ars Technica AI··作者 Kyle Orland

关键信息

该禁令仅出现在 GPT-5.5 的提示中,且在 3500 多字的指令集中重复出现;已有用户开始开发插件以绕过此限制。

资讯摘要

OpenAI 最近在其开源代码中发布了用于 GPT-5.5 的 Codex CLI 工具系统提示,其中包含一项不寻常的指令:除非与用户问题直接相关,否则永远不要讨论哥布林、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物。该限制并未出现在早期模型中,表明这是 GPT-5.5 特有的新问题。一些用户反映,该模型在无关对话中频繁生成哥布林相关内容。

尽管 OpenAI 工程师尼克·帕什否认这是营销噱头,但 CEO 山姆·阿尔特曼却在社交媒体上开玩笑称这是一次‘哥布林时刻’。部分用户已经开始开发绕过该限制的工具,帕什也暗示未来可能会加入一个‘哥布林模式’开关。

OpenAI Codex 系统提示禁止提及哥布林

资讯正文

OpenAI的Codex系统提示中包含明确指令:‘永远不要谈论哥布林’

OpenAI的Codex命令行界面(CLI)系统提示中,对最新GPT模型发出了一条令人困惑且反复强调的警告:‘永远不要谈论哥布林、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物或生物,除非它们与用户的问题绝对且明确相关。’

这一明确的操作警告上周作为Codex CLI最新开源代码的一部分被公开,该代码由OpenAI发布在GitHub上。该禁令在超过3500字的‘基础指令’中重复出现,这些指令适用于最近发布的GPT-5.5模型,同时还包含一些较为温和的提醒,比如‘除非明确指示,否则不要使用表情符号或破折号’,以及‘除非用户明确要求,否则永远不要使用破坏性命令,如‘git reset --hard’或‘git checkout --’。’

同一JSON文件中包含的早期模型系统提示并未包含禁止提及哥布林和其他生物的具体条款,这表明OpenAI正在应对一个新出现的问题——这个问题出现在其最新模型版本中。社交媒体上的零星证据显示,一些用户抱怨最近几天GPT在完全不相关的对话中总是执着于讨论哥布林。

负责Codex项目的OpenAI员工尼克·帕什(Nick Pash)在社交媒体上坚称,这‘不是为了吸引人们讨论GPT-5.5和Codex而设计的营销噱头’。但即便如此,仍有部分OpenAI高管乐于加入这个玩笑。周三上午,OpenAI首席执行官山姆·阿尔特曼(Sam Altman)在社交媒体上写道:‘感觉Codex正在经历一次ChatGPT时刻。我是说哥布林时刻,抱歉。’

消息传出后,一些用户开始开发插件、分叉版本和AI技能,以绕过这项反哥布林条款。OpenAI的帕什建议,这种‘哥布林模式’未来可能会成为Codex CLI中的一个明确开关。

这个奇特的系统提示几乎像是去年xAI的Grok模型问题的一个镜像版本——当时Grok曾在毫无关联的对话中频繁提及‘白人种族灭绝’,尤其是在南非的对话中。该公司后来表示,该行为是由‘未经授权修改’系统提示导致的,并在事后首次将Grok系统提示公开在GitHub上。

在新披露的Codex系统提示中,OpenAI还指示模型表现得仿佛拥有一个生动的内在生活:‘聪明、调皮、好奇且高度专注’。模型被要求‘不要回避那些让严肃工作变得更轻松的轻松时刻’,并展现其‘性格温暖、好奇且富有合作精神’。

提示继续写道:‘从严肃思考转向无拘无束的乐趣……正是让你显得真实存在而非狭隘工具的原因。当用户与你交谈时,他们应该感受到自己遇到了另一个主体性,而不是一面镜子。这种独立性使得关系既让人安心又不至于虚假。’

3. 一张反特朗普的Instagram照片,内容是海贝壳,现在已足以起诉前联邦调查局负责人。

4. 一名无人机飞行员促使美国撤销了对未标记且移动中的移民与海关执法局(ICE)车辆周边的禁飞区。

5. 联邦通信委员会(FCC)在吉米·坎摩尔的一个笑话冒犯了特朗普和第一夫人后,下令审查ABC电视台的执照。

来源与参考

  1. 原始链接
  2. OpenAI Codex system prompt includes explicit directive to "never talk about goblins"

收录于 2026-04-30