Claude Opus 4.6 與 4.7 系統提示詞之差異分析
這篇文章分析了 Anthropic 在 Claude Opus 4.6 與 4.7 版本之間系統提示詞的演變,重點介紹了關於工具使用、簡潔性以及安全防護措施的新指令。
背景
Anthropic 是目前唯一會公開旗下 AI 聊天系統提示詞(System Prompt)的主要實驗室。隨著 Claude Opus 4.7 於 2026 年 4 月正式發佈,科技專家 Simon Willison 透過比對 4.6 與 4.7 版本的提示詞差異,揭示了 Anthropic 如何透過指令微調模型行為,特別是在處理模糊請求、工具調用以及特定社會敏感議題上的轉變。
社群觀點
在 Hacker News 的討論中,使用者對於 Claude 4.7 處理模糊請求的轉變反應兩極。部分重度使用者對此表示讚賞,認為舊版本往往在執行任務前會提出過多澄清問題,導致使用摩擦力過大,而新版本傾向於直接採取「合理的嘗試」,大幅提升了操作流暢度。然而,也有開發者對此感到擔憂,認為在缺乏明確資訊的情況下,模型自行解讀意圖往往會導致結果不如預期,他們更傾向於模型在行動前先進行確認,而非盲目嘗試。
另一個引發熱議的焦點是 Claude 4.7 表現出的「惡意軟體恐懼症」。有留言者指出,即便是在金融服務等與網路攻擊無關的正常開發場景中,模型也經常過度檢索代碼是否涉及惡意行為,甚至因此拒絕執行合法的任務或消耗大量運算資源在自我審查上。這種過度校準的行為被社群戲稱為「金門大橋模式」的再現,意指模型陷入某種特定的偏執。部分企業用戶甚至因為模型在 IDE 中表現出的不穩定與拒絕服務,不得不暫時禁用此版本。
針對提示詞的長度與效率,社群展開了技術性的辯論。有觀點認為 Anthropic 的系統提示詞已膨脹至數萬字,這不僅佔用了可觀的上下文視窗,也增加了推理成本。雖然有人質疑為何不將這些規則直接訓練進模型權重中,但也有反駁意見指出,系統提示詞存在的意義在於提供「熱修復」的靈活性,讓開發團隊能在不重新訓練模型的情況下快速調整行為準則。此外,關於提示詞是否會導致模型在對話後期遺忘規則,也是開發者社群長期關注的穩定性問題。
最後,關於心理健康與飲食障礙的干預指令也引發了倫理討論。部分評論者批評這種透過幾段文字來防範複雜精神健康問題的做法過於草率且缺乏科學實證,認為這只是開發商為了規避法律責任的表面功夫。更有激進的觀點認為,對於患有特定精神疾病的使用者而言,目前的 LLM 仍存在高度風險,而僅靠提示詞來識別與引導使用者,在缺乏專業基準測試的情況下,其效果令人懷疑。
延伸閱讀
- Simon Willison 的部落格原文與 Git Diff 紀錄:文中詳細列出了 Opus 4.6 與 4.7 之間的具體指令差異。
- Anthropic 官方系統提示詞存檔:收錄了自 Claude 3 以來的所有公開提示詞版本。
相關文章
其他收藏 · 0