
可靠的代理在處理複雜任務時,需要編碼在軟體中的確定性控制流,而非日益複雜的提示詞鏈,以確保系統的預測性與錯誤偵測能力。
隨著人工智慧代理(AI Agents)的開發進入深水區,開發者逐漸發現單純依賴提示詞工程(Prompt Engineering)已面臨瓶頸。本文主張,要建立真正可靠且能處理複雜任務的代理系統,核心不在於撰寫更精細的提示詞,而在於將邏輯從模糊的自然語言轉向具備確定性的軟體控制流。作者認為,提示詞本質上是非確定性且難以驗證的,唯有透過明確的狀態轉換與驗證檢查點,將大型語言模型(LLM)視為系統中的一個組件而非系統本身,才能實現軟體規模化的遞迴組合性。
在 Hacker News 的討論中,多數開發者對「控制流優於提示詞」的觀點表示強烈共鳴。許多人分享了實務經驗,指出當代理系統的複雜度增加時,過度膨脹的提示詞往往會導致性能退化。一位開發者提到,他在實踐中發現,與其讓 AI 處理模糊的任務,不如將其縮減為一個「翻譯層」,僅負責將自然語言轉換為具備嚴格驗證機制的指令與參數。這種將 AI 侷限在受控環境中的做法,被視為提升可靠性的關鍵。Stripe 開發的 Minions 系統便是一個典型案例,該系統在非確定性的 LLM 任務之間穿插了確定性的節點,專門負責品質保證與邏輯校驗,確保系統不會在無聲無息中出錯。
然而,對於如何達成這種「確定性」,社群內存在不同的技術路徑與爭議。部分評論者認為,如果開發者試圖從 LLM 本身榨取確定性,那從一開始就走錯了方向;工程的本質應是在不穩定的組件上建立穩定的系統。另一種激進的觀點則建議,當提示詞達到極限時,應該讓 LLM 轉而編寫軟體程式碼來執行任務,而非直接在運行時執行邏輯。這種「AI 寫程式,程式跑任務」的模式,能讓 LLM 的角色縮小到僅協助用戶選擇符合規範的輸入。
儘管如此,也有人對過度依賴控制流持保留態度。有意見指出,過多的硬性控制流會犧牲 AI 原有的靈活性與對動態情境的適應力,且若設計不當,反而會引入更多難以處理的邊界案例。此外,針對「未來軟體將在運行時由 AI 即時生成」的預測,社群中出現了務實的反對聲音,認為使用者對介面與流程的微小變動極其敏感,完全動態生成的軟體可能引發災難性的使用者體驗。
最後,討論也觸及了超越現有 LLM 架構的必要性。有開發者指出,目前的模型在處理「絕對禁止」指令時仍存在根本缺陷,往往會將否定指令誤解為執行建議。未來的 AI 可能需要具備類似人類的記憶層級架構,或是透過多重模型投票機制(類似航空系統的冗餘設計)來抵消機率性輸出的風險,儘管這會大幅增加運算成本。整體而言,社群共識傾向於將 AI 視為一種機率性組件,必須包裹在嚴謹的軟體工程框架內才能發揮商業價值。
在討論中,開發者提及了多項實用的工具與理論資源。在框架方面,Langgraph、BAML 以及 Salesforce 開源的 AgentScript 被點名為實現代理控制流的現成方案。在理論層面,有留言推薦透過多項式函子(Polynomial Functors)來編碼代理的控制流。此外,Stripe 關於其自主代理系統 Minions 的技術部落格,也被視為理解確定性節點設計的重要參考資料。
相關文章
其他收藏 · 0