OpenClaw(又名 Moltbot)無處不在,潛藏著一場災難

Hacker News·

本文探討了名為 OpenClaw(又稱 Moltbot)的複雜 AI 工具,該工具正迅速擴散,由於其潛在的濫用風險以及難以控制其傳播的挑戰,構成重大威脅。

背景

OpenClaw(又名 Moltbot)是一款近期引起熱議的開源 AI 代理工具,旨在賦予大型語言模型(LLM)操作電腦與網路的能力。然而,隨著其快速傳播,安全漏洞與失控行為也接踵而至,引發了關於 AI 代理是否過早進入大眾市場,以及其潛在災難性後果的激烈辯論。

社群觀點

Hacker News 的討論呈現出極度兩極化的態勢。部分資深技術人員將 OpenClaw 的亂象比作 90 年代末期的「腳本小子」文化,認為 LLM 正在將社會轉化為一群缺乏安全意識的業餘駭客。他們擔憂成年人為了追求所謂的「死網」加速或技術快感,不惜犧牲系統安全性,將具有幻覺傾向且難以預測的 AI 代理直接暴露在網際網路上。反對者指出,AI 代理與傳統軟體的本質區別在於其具備「判斷力」而非單純執行指令,這使得傳統的防禦機制難以應對其隨機產生的破壞行為,例如誤刪郵件或洩漏敏感憑證。

然而,另一派觀點則認為批評者過於保守且帶有偏見。有開發者指出,OpenClaw 被指控的許多安全性問題,實際上源於使用者刻意修改預設配置或忽略文件說明,而非軟體本身的設計缺陷。他們主張技術進步往往伴隨著風險,與其過度恐懼,不如將其視為一種學習過程。支持者強調,儘管早期的 AutoGPT 確實表現不佳,但隨著模型能力的提升,如 Claude Code 等新一代編碼代理已經展現出極高的生產力。他們認為,這種「讓 AI 擁有雙手」的嘗試雖然混亂,卻是打破科技巨頭壟斷、實現個人化自動化的必要路徑。

關於 AI 代理的商業價值也引發了深度爭論。有留言者質疑,如果 AI 代理真的如宣傳般強大,為何像 OpenAI 這樣的公司仍在使用 Electron 等框架開發基礎應用,而非派遣代理進行原生平台的移植工作。這反映出目前 AI 代理可能僅擅長處理那些「原本不具經濟效益、無需長期維護」的瑣碎任務,而非取代高品質的軟體工程。此外,針對文章作者 Gary Marcus 的立場,社群也出現了分歧:有人認為他是理性的哨兵,持續揭露 AI 產業的過度承諾;也有人批評他是為了推廣自己的符號 AI 理論而刻意唱衰 LLM 的影響者。

最後,討論延伸到了「AI 禁錮」的哲學命題。許多人認為 OpenClaw 的出現證明了人類無法將 AI 關在盒子裡,因為總有人會為了娛樂或微小的利益而將其釋放。這種對技術失控的集體焦慮,與對技術突破的渴望在討論中交織,顯示出社會對於 AI 代理從「工具」轉向「代理人」的過程尚未做好充分的心理與制度準備。

延伸閱讀

Hacker News

相關文章

  1. OpenClaw:披著白日夢外衣的安全惡夢

    大約 1 個月前

  2. 一鍵遠端程式碼執行漏洞,可竊取 Moltbot 資料與金鑰

    3 個月前

  3. Hacker News 提問:有真正的 OpenClaw (Clawd Bot/Molt Bot) 使用者嗎?你們的體驗如何?

    3 個月前

  4. 經歷一番炒作後,部分AI專家認為OpenClaw並非那麼令人興奮

    Techcrunch · 2 個月前

  5. OpenClaw:當 AI 代理獲得完整系統存取權時。是安全惡夢嗎?

    3 個月前