Caveman:讓 Claude 像原始人一樣說話以節省 75% Token 的工具
Caveman 是一個 Claude Code 擴充功能,透過移除對話中的贅字並保持完整的技術準確性,大幅減少了約 75% 的 Token 消耗。
背景
這篇討論源於 GitHub 上一個名為 caveman 的開源項目,這是一個專為 Claude Code 設計的技能插件。其核心理念非常簡單:強迫 AI 模仿原始人的說話方式,捨棄所有客觀禮貌的修飾語與冗長的解釋,僅保留最核心的技術關鍵字。開發者宣稱這種做法能在保持技術準確性的前提下,節省約 75% 的輸出 Token 消耗,實現「少即是多」的溝通效率。
社群觀點
Hacker News 的網友對這種「原始人模式」展現了兩極化的評價。支持者認為這解決了當前大型語言模型過於囉唆的通病,特別是在處理瑣碎的技術問題時,使用者往往不需要閱讀長篇大論的背景介紹或禮節性的開場白。有人指出,這種簡潔的風格結合了斯拉夫與日耳曼文化的直率特質,能讓開發者更專注於程式碼本身。對於需要頻繁與 AI 協作的工程師來說,縮短訊息長度不僅能節省成本,更能降低認知負荷,避免在大量的文字垃圾中尋找關鍵解法。
然而,許多技術專家從模型運作的底層邏輯提出了質疑。最主要的反對意見認為「Token 即思考」,對於語言模型而言,輸出的 Token 數量往往與其運算深度掛鉤。如果強行限制模型必須以極短的篇幅回答,可能會導致模型缺乏足夠的「思考空間」來處理複雜邏輯,進而降低回答的品質甚至引發錯誤。有網友分享經驗指出,當嘗試用這種簡略方式溝通時,與 AI 之間的誤解反而增加,有時甚至需要花費更多輪次的對話來修正錯誤,反而得不償失。
此外,關於這是否真的能節省成本也存在爭議。部分評論者提醒,在實際的開發場景中,Token 消耗的大頭通常是輸入端的上下文,包括專案目錄結構、現有程式碼檔案與工具輸出,而非 AI 回覆的那幾行自然語言。更有趣的觀點提到,雖然輸出變短了,但如果為了強迫模型進入原始人模式而加入複雜的系統提示詞,反而可能增加輸入端的負擔。
在文化與語言層面,也有人擔心這種趨勢會加速人類語言的萎縮。就像過去人們從寫完整的 Google 搜尋句子轉變為關鍵字堆砌,現在又進一步簡化為原始人語。雖然這在技術效率上看似進步,卻可能讓溝通失去細微的準確性。不過,也有網友提出折衷看法,認為這種模式最適合用於「代理人對代理人」的溝通,或是當使用者已經對領域非常熟悉、只需要一個快速提醒的場景。
延伸閱讀
在討論過程中,有網友分享了一篇預印本論文《Brevity Constraints Reverse Performance Hierarchies in Language Models》,該研究探討了長度限制如何反向影響不同等級模型的表現。另外,也有人提到類似的溝通實驗,例如將推理 Token 替換為無意義的佔位符,或是觀察模型在不同語言間轉換時,其內部高維空間的向量運作邏輯。