微軟證實程式錯誤導致 Copilot 摘要機密郵件

Hacker News·

微軟表示自一月底以來,Microsoft 365 Copilot 的一項程式錯誤導致該 AI 助手繞過組織依賴的資料外洩防護政策,錯誤地讀取並摘要使用者寄件備份與草稿資料夾中受機密標籤保護的郵件。

背景

微軟近期證實其 Microsoft 365 Copilot 存在一項技術漏洞,導致該 AI 助手在處理電子郵件時,會無視組織設定的資料遺失防護(DLP)政策與機密標籤,進而摘要受保護的機密郵件。此問題主要影響 Copilot Chat 的「工作分頁」功能,該功能會錯誤地讀取並處理使用者「寄件備份」與「草稿」資料夾中帶有機密標籤的內容,引發企業對資料隱私與合規性的高度疑慮。

社群觀點

在 Hacker News 的討論中,社群對此事件展現出強烈的質疑與不安。許多開發者與資深技術人員認為,這不僅是一個簡單的程式碼錯誤,更反映了 AI 助手在權限管理上的根本性挑戰。有觀點指出,AI 助手若要發揮效用,往往需要極廣泛的存取權限,但這種需求與傳統的權限控制模型存在天然的衝突。我們正試圖將原本為人類設計的權限模型強行套用在運作邏輯完全不同的 AI 代理人身上,這種「硬湊」的作法註定會不斷產生類似的漏洞。

針對微軟將此事件標記為「建議」(Advisory)而非更嚴重的安全警示,社群內部也引發了關於術語定義的爭論。部分網友認為這是在淡化事件的嚴重性,質疑微軟試圖隱瞞大規模的安全漏洞;但也有專業人士澄清,在資安領域中,「Advisory」通常指涉官方發布的正式技術說明,包含影響範圍與修復建議,並不一定代表事件影響輕微。然而,這種技術解釋顯然無法平息使用者的憤怒,有人直言在法律規範嚴格的產業中,這種程度的失誤足以導致產品被永久禁用,並批評微軟在處理敏感數據時表現得像是不專業的業餘玩家。

更深層的擔憂則指向 AI 模型的訓練機制。留言者質疑,既然 Copilot 已經讀取並摘要了這些機密郵件,那麼這些敏感資訊是否已經進入了模型的訓練集?即便微軟修復了程式碼漏洞,已經被「吸收」的數據該如何徹底剝離與刪除,目前仍缺乏透明的交代。此外,社群也對微軟近年來「將 AI 撒在所有產品上」的策略感到疲勞,認為在缺乏健全安全架構的前提下,這種激進的推廣方式讓所有企業的數據都暴露在風險之中,只要一次提示詞注入攻擊或權限邏輯錯誤,所謂的機密標籤便形同虛設。

最後,有討論提到這反映了當前軟體開發品質的下滑。部分評論者諷刺地表示,這類漏洞可能是由未經充分測試的 AI 生成程式碼所造成的,形成了一種「AI 產生的錯誤程式碼導致 AI 洩漏機密」的惡性循環。對於企業管理層而言,這再次提醒了在引入自動化工具時,人類監督與嚴格審查的重要性,因為 AI 產生的低品質輸出若缺乏有效過濾,最終產生的後果仍需由人類承擔。

Hacker News

相關文章

  1. 微軟表示 Office 漏洞導致客戶機密郵件洩漏給 Copilot AI

    Techcrunch · 2 個月前

  2. 微軟 Copilot 聊天機器人面臨重大挑戰

    3 個月前

  3. 微軟重新評估 Windows 11 的 AI 過載問題,縮減 Copilot 整合並演進 Recall 功能

    3 個月前

  4. 微軟:Copilot 僅供娛樂用途

    22 天前

  5. 微軟到底有多少個產品叫 Copilot?我把每一個都列出來了

    18 天前