
Anthropic 指控中國 AI 實驗室在美國辯論晶片出口管制之際竊取 Claude 數據
Anthropic 指控 DeepSeek、月之暗面(Moonshot)和 MiniMax 利用 24,000 個虛假帳號來蒸餾 Claude 的 AI 能力,與此同時美國官員正就旨在減緩中國 AI 進展的出口管制進行辯論。
使用超鳥級優惠(Super Early Bird)最高可節省 680 美元。立即註冊。
Disrupt 2026 門票最高可省 680 美元。2 月 27 日截止。立即註冊。
主題
最新消息
AI
亞馬遜 (Amazon)
應用程式 (Apps)
生物技術與健康
氣候
雲端運算
商業
加密貨幣
企業
電動車 (EVs)
金融科技
募資
裝置
遊戲
政府與政策
硬體
裁員
媒體與娛樂
Meta
微軟 (Microsoft)
隱私
機器人
安全
社群
太空
新創公司
TikTok
交通
創投
更多來自 TechCrunch
團隊
活動
Startup Battlefield
StrictlyVC
電子報
播客 (Podcasts)
影片
合作夥伴內容
TechCrunch 品牌工作室
Crunchboard
聯繫我們

Anthropic 指控中國 AI 實驗室挖掘 Claude 數據,正值美國辯論 AI 晶片出口之際
Anthropic 指控三家中國 AI 公司利用其 Claude AI 模型開設了超過 24,000 個虛假帳號,以改進他們自己的模型。
這些實驗室——深度求索(DeepSeek)、月之暗面(Moonshot AI)和 MiniMax——據稱透過這些帳號,利用一種稱為「蒸餾」(distillation)的技術與 Claude 進行了超過 1,600 萬次交流。Anthropic 表示,這些實驗室「瞄準了 Claude 最具差異化的能力:代理推理、工具使用和程式碼編寫」。
這些指控出現之際,正值各界對於應多嚴格執行先進 AI 晶片出口管制展開辯論,該政策旨在遏制中國的 AI 發展。
「蒸餾」是 AI 實驗室常用於自身模型的一種訓練方法,旨在創建更小、更便宜的版本,但競爭對手可以利用它來實質上「抄襲」其他實驗室的作業。OpenAI 本月初曾向眾議院議員發送備忘錄,指控 DeepSeek 使用蒸餾技術來模仿其產品。
DeepSeek 在一年前首次引起轟動,當時它發布了開源的 R1 推理模型,其性能幾乎與美國頂尖實驗室的模型持平,但成本僅為其一小部分。DeepSeek 預計很快將發布其最新模型 DeepSeek V4,據報導該模型在程式碼編寫方面的表現可能超越 Anthropic 的 Claude 和 OpenAI 的 ChatGPT。
每次攻擊的規模各不相同。Anthropic 追蹤到來自 DeepSeek 的超過 15 萬次交流,這些交流似乎旨在改進基礎邏輯和對齊,特別是針對政策敏感查詢的審查安全替代方案。
月之暗面則有超過 340 萬次交流,目標是代理推理和工具使用、程式碼編寫與數據分析、電腦使用代理開發以及電腦視覺。上個月,該公司發布了新的開源模型 Kimi K2.5 和一個程式碼編寫代理。
MiniMax 的 1,300 萬次交流則針對代理程式碼編寫、工具使用與編排。Anthropic 表示,它觀察到 MiniMax 在行動中將近一半的流量重新導向,以便在最新款 Claude 模型發布時吸取其能力。
Anthropic 表示將繼續投資防禦措施,使蒸餾攻擊更難執行且更容易識別,但同時呼籲「AI 產業、雲端供應商和政策制定者採取協調一致的應對措施」。
蒸餾攻擊發生的時機,正值美國對華晶片出口仍處於激烈辯論之中。上個月,川普政府正式允許輝達(Nvidia)等美國公司向中國出口先進 AI 晶片(如 H200)。批評者認為,這種出口管制的放寬在全求 AI 霸權競爭的關鍵時刻,增加了中國的 AI 計算能力。
Anthropic 表示,DeepSeek、MiniMax 和月之暗面所進行的這種規模的提取「需要獲取先進晶片」。
根據 Anthropic 的部落格文章:「因此,蒸餾攻擊強化了出口管制的合理性:限制晶片獲取既限制了直接的模型訓練,也限制了非法蒸餾的規模。」
Silverado 政策加速器智庫主席、CrowdStrike 共同創辦人 Dmitri Alperovitch 告訴 TechCrunch,他對看到這些攻擊並不感到驚訝。
「一段時間以來,中國 AI 模型的快速進步部分原因在於透過蒸餾竊取美國頂尖模型,這一點已經很清楚了。現在我們確切地知道了這一事實,」Alperovitch 說。「這應該給我們更充分的理由拒絕向這些(公司)出售任何 AI 晶片,因為這只會進一步增加他們的優勢。」
Anthropic 還表示,蒸餾不僅威脅到美國的 AI 領先地位,還可能產生國家安全風險。
Anthropic 的部落格文章寫道:「Anthropic 和其他美國公司構建的系統可以防止國家和非國家行為者利用 AI,例如開發生物武器或進行惡意網路活動。透過非法蒸餾構建的模型不太可能保留這些防護措施,這意味著危險的能力可能會在許多保護措施被完全剝離的情況下擴散。」
Anthropic 指出,威權政府部署頂尖 AI 用於「攻擊性網路行動、虛假訊息活動和大規模監控」等事務,如果這些模型是開源的,這種風險會成倍增加。
TechCrunch 已聯繫 DeepSeek、MiniMax 和月之暗面徵求評論。