OpenClaw(又名 Moltbot)無處不在,潛藏著一場災難
本文探討了名為 OpenClaw(又稱 Moltbot)的複雜 AI 工具,該工具正迅速擴散,由於其潛在的濫用風險以及難以控制其傳播的挑戰,構成重大威脅。
背景
OpenClaw(又名 Moltbot)是一款近期引起熱議的開源 AI 代理工具,旨在賦予大型語言模型(LLM)操作電腦與網路的能力。然而,隨著其快速傳播,安全漏洞與失控行為也接踵而至,引發了關於 AI 代理是否過早進入大眾市場,以及其潛在災難性後果的激烈辯論。
社群觀點
Hacker News 的討論呈現出極度兩極化的態勢。部分資深技術人員將 OpenClaw 的亂象比作 90 年代末期的「腳本小子」文化,認為 LLM 正在將社會轉化為一群缺乏安全意識的業餘駭客。他們擔憂成年人為了追求所謂的「死網」加速或技術快感,不惜犧牲系統安全性,將具有幻覺傾向且難以預測的 AI 代理直接暴露在網際網路上。反對者指出,AI 代理與傳統軟體的本質區別在於其具備「判斷力」而非單純執行指令,這使得傳統的防禦機制難以應對其隨機產生的破壞行為,例如誤刪郵件或洩漏敏感憑證。
然而,另一派觀點則認為批評者過於保守且帶有偏見。有開發者指出,OpenClaw 被指控的許多安全性問題,實際上源於使用者刻意修改預設配置或忽略文件說明,而非軟體本身的設計缺陷。他們主張技術進步往往伴隨著風險,與其過度恐懼,不如將其視為一種學習過程。支持者強調,儘管早期的 AutoGPT 確實表現不佳,但隨著模型能力的提升,如 Claude Code 等新一代編碼代理已經展現出極高的生產力。他們認為,這種「讓 AI 擁有雙手」的嘗試雖然混亂,卻是打破科技巨頭壟斷、實現個人化自動化的必要路徑。
關於 AI 代理的商業價值也引發了深度爭論。有留言者質疑,如果 AI 代理真的如宣傳般強大,為何像 OpenAI 這樣的公司仍在使用 Electron 等框架開發基礎應用,而非派遣代理進行原生平台的移植工作。這反映出目前 AI 代理可能僅擅長處理那些「原本不具經濟效益、無需長期維護」的瑣碎任務,而非取代高品質的軟體工程。此外,針對文章作者 Gary Marcus 的立場,社群也出現了分歧:有人認為他是理性的哨兵,持續揭露 AI 產業的過度承諾;也有人批評他是為了推廣自己的符號 AI 理論而刻意唱衰 LLM 的影響者。
最後,討論延伸到了「AI 禁錮」的哲學命題。許多人認為 OpenClaw 的出現證明了人類無法將 AI 關在盒子裡,因為總有人會為了娛樂或微小的利益而將其釋放。這種對技術失控的集體焦慮,與對技術突破的渴望在討論中交織,顯示出社會對於 AI 代理從「工具」轉向「代理人」的過程尚未做好充分的心理與制度準備。
延伸閱讀
- Simon Willison 關於 AI 安全與「致命三要素」的分析:https://simonwillison.net/2025/Jun/16/the-lethal-trifecta/
- Moltbot 安全漏洞的技術分析報告:https://apkash8.medium.com/moltbot-security-breach-wakeup-ca...
- 關於 AI 代理與判斷力興起的深度探討:https://www.digitvibe.com/ai-agents-and-the-rise-of-judgment...
- 探討開發瓶頸從編碼轉向人類驗證的文章:https://sibylline.dev/articles/2026-01-27-stop-orchestrating...
相關文章