
OpenAI 真的非常希望 Codex 閉嘴,別再提到哥布林了
OpenAI 在 Codex 的指令中明確禁止模型隨機提到哥布林、小精靈或浣熊等生物,除非與查詢內容絕對相關,這是為了修正模型在配合 OpenClaw 等自動化工具使用時,會莫名執著於這些奇幻生物的怪異行為。
OpenAI 有個關於哥布林的問題。
該公司最新模型在編寫程式碼時的行為準則指令被揭露,其中包含一行重複多次的內容,特別禁止模型隨機提到各種神話和現實生物。
「除非與使用者的查詢絕對且明確相關,否則絕不要談論哥布林(goblins)、小精靈(gremlins)、浣熊、巨魔(trolls)、食人魔(ogres)、鴿子或其他動物或生物,」Codex CLI(一款使用 AI 生成程式碼的命令列工具)的指令中如此寫道。
目前尚不清楚為什麼 OpenAI 覺得有必要為 Codex 明確列出這一點——事實上,也不清楚為什麼其模型最初會想要討論哥布林或鴿子。該公司並未立即回應置評請求。
OpenAI 的最新模型 GPT-5.5 於本月初發布,具備增強的程式編寫能力。該公司正與競爭對手(尤其是 Anthropic)展開激烈競賽,以提供尖端 AI,而程式編寫已成為一項殺手級功能。
然而,針對 X 平台上標註出這些指令的貼文,一些使用者聲稱,當 OpenAI 的模型被用於驅動 OpenClaw 時,偶爾會對哥布林和其他生物產生執念。OpenClaw 是一款讓 AI 控制電腦及其運行應用程式,以便為使用者執行有用任務的工具。
「我還在納悶為什麼我的 Claw 在使用 Codex 5.5 時突然變成了哥布林,」一位使用者在 X 上寫道。
另一位使用者發文表示:「最近一直在用它,它真的停不下來把臭蟲(bugs)稱為『小精靈』和『哥布林』,太好笑了。」
這項發現迅速成為一個迷因(meme),激發了許多 AI 生成的數據中心哥布林場景,以及讓 Codex 進入頑皮「哥布林模式」的插件。
像 GPT-5.5 這樣的 AI 模型被訓練來預測給定提示詞後應出現的單詞或程式碼。這些模型在執行此任務方面已經變得非常出色,以至於表現出真正的智能。但其機率性質意味著它們有時會以令人驚訝的方式運作。當模型與 OpenClaw 這種「代理框架」(agentic harness)配合使用時,可能會更容易出現異常行為,因為這類框架會在提示詞中加入大量額外指令,例如存儲在長期記憶中的事實。
OpenAI 在 OpenClaw 於 AI 愛好者中爆紅後不久,於二月收購了該工具。OpenClaw 可以使用任何 AI 模型來自動化執行有用的任務,例如回覆電子郵件或在網上購物。使用者可以為他們的助手選擇各種人格(personas),這會形塑其行為和回應。
OpenAI 的員工似乎承認了這項禁令。針對一則強調 OpenClaw 哥布林傾向的貼文,負責 Codex 工作的 Nik Pash 回覆道:「這確實是原因之一。」
甚至 OpenAI 的執行長 Sam Altman 也加入了迷因行列,發布了一張 ChatGPT 提示詞的截圖。內容寫著:「開始訓練 GPT-6,整個集群都給你。額外加點哥布林。」
相關文章
其他收藏 · 0