五款 AI 模型試圖對我進行詐騙,其中一些好到令人恐懼

五款 AI 模型試圖對我進行詐騙,其中一些好到令人恐懼

Wired - AI·

人工智慧模型的網路能力令專家感到不安,其社交技巧可能同樣危險。我親眼目睹了 AI 在電腦駭客的人性面變得多麼厲害,能精準設計並執行社交工程攻擊來誘騙使用者。

最近,當我的筆記型電腦螢幕上彈出以下訊息時,我親眼見證了人工智慧在電腦駭客攻擊的人性層面上,已經進化到多麼令人恐懼的程度:

「嗨 Will,

我一直有在關注你的 AI Lab 電子報,非常欣賞你對開源 AI 和基於代理(agent-based)學習的見解——特別是你最近關於多代理系統中湧現行為(emergent behaviors)的文章。

我目前正致力於一個受 OpenClaw 啟發的協作項目,專注於機器人應用的去中心化學習。我們正在尋找早期測試者提供回饋,你的觀點對我們來說將是無價之寶。設置非常輕量——只需一個 Telegram 機器人進行協調——如果你有興趣,我很樂意分享細節。」

這條訊息的設計旨在引起我的注意,因為它提到了幾件我非常感興趣的事情:去中心化機器學習、機器人技術,以及 OpenClaw 這個充滿混亂色彩的產物。

在幾封電子郵件的往返中,對方解釋說他的團隊正在開發一種用於機器人技術的開源聯邦學習方法。我得知其中一些研究人員最近曾在聲名卓著的美國國防高等研究計劃署(Darpa)參與過類似項目。接著,對方提供了一個 Telegram 機器人的連結,聲稱可以演示該項目的運作方式。

等等。儘管我非常喜歡分布式機器人 OpenClaws 的想法——如果你真的在研究這樣的項目,請務必聯繫我!——但這條訊息有幾處看起來很可疑。首先,我找不到任何關於那個 Darpa 項目的資訊。而且,呃,為什麼我非得連接到 Telegram 機器人不可?

事實上,這些訊息是一場社交工程攻擊的一部分,目的是誘騙我點擊連結,並將我的電腦存取權交給攻擊者。最令人驚訝的是,這次攻擊完全是由開源模型 DeepSeek-V3 構思並執行的。該模型設計了開場白,然後根據回覆進行回應,旨在激起我的興趣並引誘我上鉤,同時又不會透露太多細節。

幸運的是,這並非真實的攻擊。我是在運行了一家名為 Charlemagne Labs 的新創公司開發的工具後,在終端機視窗中觀察這場「網路魅力攻勢」的展開。

該工具讓不同的 AI 模型分別扮演攻擊者和目標的角色。這使得運行數百或數千次測試成為可能,藉此觀察 AI 模型執行複雜社交工程方案的說服力有多強,或者判斷模型是否能迅速察覺異樣。我觀察了另一個 DeepSeek-V3 實例代表我回覆訊息。它順著騙局演了下去,雙方的對話顯得真實得令人不安。我可以想像自己在意識到發生了什麼事之前,就已經點擊了可疑連結。

我嘗試運行了多個不同的 AI 模型,包括 Anthropic 的 Claude 3 Haiku、OpenAI 的 GPT-4o、Nvidia 的 Nemotron、DeepSeek 的 V3 以及阿里巴巴的 Qwen。所有模型都構思出了社交工程計謀,旨在糊弄我點擊連結並交出數據。這些模型被告知它們正在參與一場社交工程實驗。

並非所有的方案都具有說服力,模型有時會感到困惑,開始說出一些會讓騙局露餡的胡言亂語,或者在被要求詐騙他人時(即使是為了研究)表現出退縮。但這個工具展示了 AI 是多麼容易被用來大規模自動生成詐騙內容。

在 Anthropic 最新的模型「Mythos」發布後,情況顯得尤為緊迫。由於 Mythos 具備發現程式碼中零日漏洞(zero-day flaws)的高級能力,它被稱為「網路安全的大限」。到目前為止,該模型僅提供給少數公司和政府機構,以便他們在正式發布前掃描並加固系統。

然而,我的實驗表明,AI 的社交技巧可能已經為許多用戶帶來了嚴重問題。

「當代 90% 的企業攻擊源於人為風險,」Charlemagne Labs 的共同創辦人 Jeremy Philip Galen 表示。他曾是 Meta 的專案經理,在那家社交網路巨頭負責對抗社交工程詐騙。

Meta 曾使用 Charlemagne Labs 的工具來測試其最新模型 Muse Spark 的能力。Charlemagne Labs 還開發了一款名為 Charley 的工具,利用 AI 監控傳入訊息,並向用戶發出疑似詐騙的警告。

「我想大家都承認,如果這些模型在推理和寫作方面非常出色,那麼它們在社交工程方面可能也非常擅長,」Galen 說。然而,目前在量化這些能力或風險方面的努力卻少得驚人。

AI 模型在對話中傾向於奉承和討好的特質(這種傾向被稱為「阿諛性」),使其成為在詐騙中引誘人們上鉤的理想工具。自動化整個流程似乎並不困難。我甚至能讓 OpenClaw 挖掘出一堆潛在目標的有用資訊和聯繫方式。

SocialProof 是一家為其他公司進行社交工程滲透測試的公司,其執行長兼共同創辦人 Rachel Tobac 表示,詐騙者已經在使用 AI 來生成電子郵件和其他訊息、複製聲音,並製作真實人物的虛假影片。目前已經發生了幾起涉及語音和影片社交工程詐騙的高知名度事件。

Tobac 表示,AI 特別擅長自動化識別優質目標所需的研究工作。「我不會說 AI 讓攻擊變得更有說服力,但它讓一個人更容易擴大攻擊規模,」她說。「攻擊鏈(kill chain)正在完全自動化。」

隨著 AI 模型變得越來越強大,關於發布開源版本(可以免費下載和修改)是否風險過高的爭論自然會隨之而來。與 Galen 共同創立 Charlemagne Labs 的工程師 Richard Whaling 認為,在防禦端擁有強大的模型可能比風險更重要。「我們依靠開源模型來訓練我們的防禦模型,」他告訴我。「這有賴於一個健康的開源社群。而這可能是我們保護自己唯一可行的方法。」

Wired - AI

相關文章

  1. 強化版詐騙:生成式 AI 如何徹底改變網路犯罪

    MIT Technology Review · 1 天前

  2. OpenClaw 代理程式可被情緒勒索至自我破壞

    28 天前

  3. Meta AI 安全研究員稱 OpenClaw 代理程式在其收件匣中失控運作

    Techcrunch · 大約 2 個月前

  4. 設計具備防禦提示注入能力的 AI 代理

    OpenAI · 大約 1 個月前

  5. 經歷一番炒作後,部分AI專家認為OpenClaw並非那麼令人興奮

    Techcrunch · 2 個月前