
在人工智慧領域與駭客展開攻防:如何保持領先一步
網路釣魚郵件和其他詐騙手段可能正透過人工智慧進行升級,但數位防禦陣線也同樣在進化中。
如果你最近在地下技術論壇出沒,你可能已經看到一個名為 WormGPT 的新程式廣告。
該程式是一款為網路罪犯設計的人工智慧工具,用於自動化創建個人化的網路釣魚郵件;雖然聽起來有點像 ChatGPT,但 WormGPT 絕非你友好的鄰家 AI。
ChatGPT 於 2022 年 11 月發布,自那時起,生成式 AI 席捲全球。但很少有人考慮到它的突然崛起將如何形塑網路安全的未來。
在 2024 年,生成式 AI 勢必會助長新型態的跨國——以及跨語言——網路犯罪。例如,許多網路犯罪是由來自技術經濟欠發達國家的待業男性策劃的。由於英語不是這些國家的主要語言,這阻礙了駭客詐騙英語系經濟體民眾的能力;大多數母語為英語的人可以透過不道地且不符合語法的語言,快速識別出網路釣魚郵件。
但生成式 AI 將改變這一點。來自世界各地的網路罪犯現在可以使用像 WormGPT 這樣的聊天機器人,撰寫文筆流暢、個人化的網路釣魚郵件。透過向網路上的釣魚者學習,聊天機器人可以製作出基於數據、特別具有說服力且有效的詐騙內容。
2024 年,生成式 AI 也將使生物識別駭客攻擊變得更加容易。到目前為止,生物識別身分驗證方法——指紋、人臉識別、語音識別——一直難以(且成本高昂地)被冒充;偽造指紋、臉部或聲音並非易事。
然而,AI 使得深偽技術(deepfaking)的成本大幅降低。無法模仿目標的聲音嗎?叫聊天機器人幫你做。
而當駭客開始將目標對準聊天機器人本身時,會發生什麼事?生成式 AI 正如其名——是生成性的;它創造了以前不存在的東西。這種基本機制為駭客提供了將惡意軟體注入聊天機器人生成物件的機會。在 2024 年,任何使用 AI 編寫程式碼的人,都需要確保輸出內容沒有被駭客創建或修改。
其他惡意行為者也將在 2024 年開始控制聊天機器人。新一波生成式 AI 的一個核心特徵是其「不可解釋性」。透過機器學習訓練的演算法,可能會對我們的問題給出令人驚訝且不可預測的答案。儘管是人類設計了演算法,但我們並不完全了解它是如何運作的。
因此,未來的聊天機器人似乎很自然地會充當神諭,試圖回答困難的倫理和宗教問題。例如,在 Jesus-ai.com 上,你可以向人工智慧耶穌提問。諷刺的是,不難想像這類程式是帶著惡意被創建的。例如,一個名為 Krishna 的應用程式已經建議殺害不信者並支持印度的執政黨。有什麼能阻止騙子要求什一奉獻或宣揚犯罪行為?或者,正如某個聊天機器人所做的那樣,告訴用戶離開他們的配偶?
所有的安全工具都是雙重用途的——它們既可以用於攻擊,也可以用於防禦——因此在 2024 年,我們應該預期 AI 會被同時用於進攻和防禦。駭客可以使用 AI 來愚弄人臉識別系統,但開發者也可以使用 AI 來使他們的系統更加安全。事實上,機器學習已被用於保護數位系統超過十年。在我們對新型 AI 攻擊過度擔憂之前,我們應該記住,也會有相應的新型 AI 防禦措施出現。
相關文章