newsence

大型語言模型能以驚人的準確度大規模揭露匿名用戶身份

Hacker News·大約 1 個月前

研究人員證實大型語言模型可以透過分析自由文本並比對跨平台數據,以高達百分之九十的精準度揭露社群媒體用戶的真實身份。這項發現推翻了傳統對網路匿名保護的假設,並可能引發肉搜或國家級監控等潛在風險。

背景

近期一項研究指出,大型語言模型(LLM)能以驚人的準確率去匿名化社交媒體上的虛擬帳號,其成效遠超傳統的結構化數據匹配方法。研究人員透過分析 Hacker News、Reddit 等平台的公開貼文,證明 AI 代理具備模擬人類推理與跨平台檢索的能力,即便使用者刻意隱藏身份,AI 仍能從非結構化的文字片段中拼湊出真實個體,這對網路隱私保護構成了前所未有的挑戰。

社群觀點

在 Hacker News 的討論中,社群對此技術的反應呈現兩極化。部分使用者對網路環境的惡化感到悲觀,認為隨著去匿名化技術的普及,網路正變得越來越乏味,甚至預言未來的人們可能會回歸線下生活或類比時代,以逃避無所不在的數位追蹤。這種觀點反映出大眾對於「隱私保護假設」崩潰的集體焦慮,過去人們認為只要不直接透露姓名,分散的言論片段便足以提供安全感,但 LLM 的出現徹底打破了這種安全錯覺。

然而,也有技術背景深厚的使用者對研究結果持懷疑態度。有評論者公開發起挑戰,認為只要維持良好的操作安全(OPSEC)習慣,不主動洩漏關鍵資訊,AI 並非魔法,無法憑空指認身份。他們質疑該研究未公開具體的提示詞與工具細節,有「信我者得永生」之嫌。有趣的是,這場討論隨即演變成一場現場的去匿名化實驗。其他網友開始挖掘挑戰者的歷史發文,試圖從其使用的貨幣單位、對特定航空公司或汽車型號的評論、甚至是對 5G 網路與電子郵件伺服器的描述中,推論出其可能的國籍、年齡與居住城市。這場互動證明了即便使用者自認謹慎,多年累積的數位足跡仍會形成獨特的「指紋」。

此外,社群也深入探討了行為特徵與監控資本主義的關聯。有觀點指出,威脅並非僅來自貼文內容,更來自打字習慣、語法細微差別以及跨平台的行為模式。大型科技公司早已利用這些技術進行廣告追蹤,而 LLM 只是將這種能力民主化與規模化。針對法律層面,討論也觸及了歐盟通用資料保護規則(GDPR)的適用性。如果 LLM 能夠將原本匿名的評論與真實身份連結,那麼這些公開評論是否應被視為「個人資料」而享有「被遺忘權」,將成為未來法律爭議的焦點。最後,有使用者提出了一種反直覺的應對策略:與其隱藏,不如利用 LLM 生成大量無意義的內容來淹沒真實足跡,透過製造雜訊來實現隱身。

延伸閱讀

在討論中,使用者提到了一些與身份識別相關的工具與資源。例如過去曾出現過名為 hnprofile.com 的網站(目前已關閉),該工具能根據寫作模式準確識別出同一個人在 Hacker News 上的不同帳號。此外,也有人分享了關於文字特徵分析的研究論文,探討如何透過語言習慣來判定作者身份。針對隱私防禦,社群也推薦關注「監控資本主義」相關論述,以了解目前企業如何透過行為指紋追蹤使用者。

https://arstechnica.com/security/2026/03/llms-can-unmask-pseudonymous-users-at-scale-with-surprising-accuracy/