
Nemotron 實驗室:OpenClaw 代理對每個組織的意義
到 2026 年初,開源項目 OpenClaw 已成為一種現象。1 月份其 GitHub 星數突破 10 萬,開發者興趣激增。
編者按:本篇文章是 Nemotron Labs 部落格系列的一部分,該系列探討最新的開源模型、數據集和訓練技術如何幫助企業在 NVIDIA 平台上構建專業的 AI 系統與應用。每篇文章都重點介紹了使用開源堆棧在生產環境中交付實際價值的實用方法——從透明的研究副駕駛到可擴展的 AI 代理。
到 2026 年初,開源項目 OpenClaw 已成為一種現象。1 月份,隨著開發者興趣激增,其 GitHub 星數突破了 10 萬大關。社群儀表板和流量分析顯示,單週訪問量超過 200 萬人次。到了 3 月,OpenClaw 的星數突破 25 萬——在短短 60 天內超越了 React,成為 GitHub 上星數最多的軟體項目。
OpenClaw 由 Peter Steinberger 創建,是一個自託管、持久化的 AI 助手,旨在本地或私有伺服器上運行。該項目因其易用性和無限的自主性而受到關注:用戶可以在本地部署 AI 模型,而不必依賴雲端基礎設施或外部應用程式介面(API)。
目前大多數 AI 代理(AI agents) 都是由提示詞觸發,完成定義的任務後便停止運行。而長效運行的自主代理(或稱為「claw」)則不同。這些代理在背景持續運行,自主完成任務,僅在需要人類決策時才出現。它們依據「心跳」運作:定期檢查任務列表,評估哪些需要採取行動,然後執行操作或等待下一個週期。
OpenClaw 的快速普及也引發了爭論。安全研究人員對自託管 AI 工具如何管理敏感數據、身份驗證和模型更新表示擔憂。其他人則質疑本地部署是否會讓用戶面臨新風險——從未修補的伺服器實例到社群分支中的惡意貢獻。隨著貢獻者和維護者努力解決這些問題,OpenClaw 的興起促使整個 AI 生態系統對開放性、隱私和安全性之間的權衡展開了更廣泛的討論。
為了幫助增強 OpenClaw 項目的安全性和穩健性,NVIDIA 正與 Steinberger 及 OpenClaw 開發者社群合作,解決潛在的漏洞,詳情見 OpenClaw 最近發布的部落格文章。
NVIDIA 貢獻了代碼和指導,重點在於改進模型隔離、更好地管理本地數據訪問,以及強化社群代碼貢獻的驗證流程。其目標是以開放、透明的方式貢獻其安全和系統專業知識,在加強社群工作的同時,保留 OpenClaw 的獨立治理,從而支持該項目的發展勢頭。
為了幫助企業更安全地使用長效運行代理,NVIDIA 還推出了 NVIDIA NemoClaw。這是一個參考實現,只需一條指令即可安裝 OpenClaw、NVIDIA OpenShell 安全運行環境以及 NVIDIA Nemotron 開源模型,並針對網路、數據訪問和安全性進行了強化預設。NemoClaw 為組織更安全地部署「claw」提供了藍圖。
推理需求隨每一波 AI 浪潮倍增
AI 經歷了四個階段,且每個階段之間的間隔正在縮短。預測型 AI 花了數年才成為主流。生成式 AI 發展更快。推理型 AI 到來的速度更快。而以 OpenClaw 為代表的自主型 AI 浪潮,其步伐甚至更快。
隨每一波浪潮複合增長的是推理(inference)需求。生成式 AI 比起預測型 AI 增加了 Token 使用量。推理型 AI 又將其增加了 100 倍。而自主代理因其持續運行且跨越長時程執行任務,其推理需求比推理型 AI 又高出 1,000 倍。每一波浪潮都使所需的運算量成倍增加。
Token 使用量的增加使組織能夠以數量級的速度提升生產力。例如,長效運行代理可以幫助研究人員在夜間解決問題、在數千種配置中迭代設計,或監控系統並僅呈現需要人類判斷的異常情況——從而讓研究人員在工作日能專注於更高價值的任務。
選擇工具:何時部署「Claw」
雖然生成式 AI 已成為隨選任務的主力,但在特定場景下,「claw」持久的「心跳」具有明顯優勢。決定何時從標準的基於提示詞的 AI 轉向長效運行代理,通常取決於工作流的性質:
- 從「隨選」到「常駐」:雖然標準模型非常適合即時、由人觸發的查詢,但「claw」通常更適合需要持續背景監控或定期系統檢查而無需手動啟動的任務。
- 管理高迭代循環:對於複雜問題,如測試數千種化學組合或模擬基礎設施壓力測試,「claw」可以處理巨大的迭代量,否則這些工作可能會因人工干預而產生瓶頸。
- 從「建議」轉向「行動」:在許多工作流中,標準 AI 用於提供資訊或草案。當目標是讓 AI 進入執行階段——與 API 交互、更新數據庫或在長時程內管理文件時,通常會考慮使用「claw」。
- 資源優化:對於大規模、高 Token 消耗的推理任務,在如 NVIDIA DGX Spark 個人 AI 超級電腦等專用硬體上部署本地「claw」,與高頻率的雲端 API 調用相比,可以獲得更可預測的成本和數據隱私。
組織如何使用長效自主代理?
長效自主代理的實際應用涵蓋了各個職能和部門。
在金融服務領域,代理持續監控交易系統和監管資訊流,在早晨審查前標記重大事件。在藥物研發中,代理掃描新的科學文獻,提取相關發現並實時更新內部數據庫,無需研究人員干預——這一過程以前需要數週時間。
在工程和製造領域,代理通過測試數千種參數組合、對結果進行排名並標記值得檢查的配置,加速問題分析——而這一切都可以在一夜之間完成。
在 IT 營運中,代理診斷基礎設施事件,應用已知的補救措施,並僅上報新奇的問題——將平均修復時間從數小時壓縮到數分鐘。在 ServiceNow,利用 Apriel 和 NVIDIA Nemotron 模型的 AI 專家可以自主解決 90% 的工單。
公司如何負責任地部署自主代理?
自主代理具有實作能力。它們可以發送通訊、編寫文件、調用 API 並更新在線系統。當代理產生錯誤行動時,會產生實際後果。從一開始就建立正確的問責框架至關重要,部署生產級自主代理的組織必須將治理視為首要需求。
組織需要看到他們的代理正在做什麼,檢查每一步的推理過程,審計其行動並在需要時進行干預。
負責任地部署自主代理的組織專注於三個優先事項:
- 開放、可審計的框架:NemoClaw 構建在 OpenClaw 的 MIT 授權代碼庫之上,這意味著組織擁有完整的代理控制架構。他們可以閱讀、分叉並修改代理構建和部署的每一層。這種透明度使團隊能夠在代碼層級理解和控制系統。在本地運行如 NVIDIA Nemotron 等開源模型,可將包括患者記錄、法律文件、金融交易和專有研究在內的敏感工作負載保留在組織自身的環境中,確保追蹤數據受組織控制。
- 保護運行環境:NemoClaw 在 OpenShell 中運行代理,這是一個沙盒環境,精確定義了代理可以和不可以做什麼,從一開始就強制執行明確的權限邊界。
- 本地運算:NVIDIA DGX Spark 超級電腦以桌邊型態提供數據中心級的 GPU 性能,專為持續的本地推理而設計,支持本地模型託管,且數據保留在組織環境內。NVIDIA DGX Station 系統則為在複雜、持續的工作負載中同時運行多個代理的團隊擴展了這一能力。
那些在實踐中定義自主代理用途的組織正在累積寶貴的財富:數月的實際營運經驗、通過真實工作負載開發的治理框架,以及吸收了機構背景資訊、使其真正發揮作用的代理。隨著時間推移,這一基礎只會更加深厚。
開始使用 NVIDIA NemoClaw
訪問分步教程,了解如何使用 NemoClaw 在 NVIDIA DGX Spark 上構建更安全的 AI 代理。探索 NemoClaw 如何通過單條指令部署更安全、常駐的 AI 助手。
在 GitHub 上體驗 NemoClaw,並加入 Discord 上的開發者社群,與他們一起在 DGX Spark 上使用 NVIDIA Nemotron 3 Super 和 Telegram 構建 NemoClaw。
訂閱 NVIDIA AI 新聞、加入社群並在 LinkedIn、Instagram、X 和 Facebook 上關注 NVIDIA AI,隨時掌握代理式 AI、NVIDIA Nemotron 等最新動態。
探索 自學影片教程和直播。
相關文章