關於近期 Claude Code 品質報告的更新說明
我們調查並解決了導致 Claude Code 性能下降的三個獨立問題,包括預設推理強度的調整、提示詞快取導致的記憶喪失 Bug,以及為了減少冗餘而影響智能的系統提示詞變更。我們已為所有訂閱者重置使用限制,並將實施更嚴格的測試流程以避免類似問題再次發生。
背景
近期許多使用者反應 Anthropic 旗下的 Claude Code 效能出現明顯下滑,質疑模型遭到降級。Anthropic 隨後發布官方說明,坦承在三月至四月期間,因預設推理強度調整、快取優化導致的思維鏈遺失,以及系統提示詞過於簡略等三項技術失誤,導致產品表現不如預期,並宣布已修復問題且將補償受影響用戶。
社群觀點
在 Hacker News 的討論中,多數使用者對 Anthropic 的解釋抱持懷疑且不滿的態度。許多評論者指出,雖然官方強調「模型本身」並未降級,但對於終端用戶而言,前端介面、快取機制與系統提示詞的改動,其結果與模型降級無異。一位使用者犀利地批評,這種行為無異於對用戶進行「煤氣燈效應」式的誤導,因為當介面顯示為高強度推理模式,背後卻被偷偷降級為中強度時,用戶感受到的就是產品品質的崩壞。社群普遍認為,Anthropic 同時進行過多變數的測試,卻缺乏透明的溝通機制,讓付費訂閱者感覺自己像是未被告知的實驗白老鼠。
針對技術細節的失誤,社群也展現了嚴厲的批判。特別是關於「快取優化導致持續遺失思維鏈」的臭蟲,被認為是極其低級的軟體工程錯誤。有留言者質疑,這種會導致模型變得健忘、重複且胡言亂語的嚴重問題,竟然耗時半個月才被發現並修復,顯示出 Anthropic 內部可能過度依賴所謂的「直覺編碼」文化,而缺乏嚴謹的單元測試與數據監控。部分用戶甚至表示,這種對產品穩定性的忽視已經嚴重損害了品牌信任度,即便官方現在提供補償,也難以挽回那些因生產力受損而轉向競爭對手的專業用戶。
然而,討論中也存在另一種相對寬容的聲音。部分支持者認為,儘管近期出現了退步,但 Claude 在程式碼撰寫上的整體表現依然優於 OpenAI 的現有模型。他們指出,在快速迭代的 AI 領域中,追求極致效能難免會伴隨不穩定的風險,且 Anthropic 願意發布詳細的技術檢討報告,比起其他避而不談的競爭對手已更具誠意。也有觀點提到,對於許多由公司支付訂閱費用的開發者來說,只要工具在大部分時間能節省開發成本,短暫的波動尚在可接受範圍內。
最後,社群也觀察到一些有趣的副作用。有使用者分享,最近 Claude 頻繁出現「自我對話」的現象,會莫名其妙地在回覆中宣稱自己識破了用戶的提示詞注入攻擊,即便用戶只是詢問普通問題。這反映出 Anthropic 在調整系統提示詞以減少冗餘時,可能引入了過於激進的防禦機制,導致模型變得過度敏感且難以溝通。這種「人工智慧變得像個易怒實習生」的類比,引起了許多開發者的共鳴,也凸顯了在追求模型優化的過程中,如何平衡安全性與易用性仍是極大的挑戰。
延伸閱讀
在討論中,有使用者提到若對 Anthropic 的服務失去信心,目前已轉向使用 MiniMax 作為替代方案,並搭配 Zed 或 Claude Code 作為開發框架。此外,也有人提及 OpenRouter 與 Perplexity 作為切換不同模型以維持生產力的備選工具。
相關文章
其他收藏 · 0