
AI got the blame for the Iran school bombing. The truth is more worrying
大型語言模型失控的說法主導了報導,但這與目標選擇無關。相反,是人類多年來的選擇造成了這場慘劇,人們未能更新資料庫,而其他人則建立了一個快到足以讓這種疏失致命的系統。
背景
本文探討 2026 年美軍「史詩憤怒行動」(Operation Epic Fury)中,伊朗米納布一所小學遭誤炸導致大量學童喪生的慘劇。輿論初期將矛頭指向 Anthropic 開發的聊天機器人 Claude,質疑 AI 決定了攻擊目標,但事實顯示核心問題在於名為「Maven」的目標識別系統,以及人類多年來未能更新資料庫的官僚疏失。
社群觀點
Hacker News 的討論圍繞著責任歸屬、技術誤讀以及戰爭中的資訊透明度展開。許多技術從業者指出,將責任推給 Claude 是一種典型的「AI psychosis」(AI 精神官病),這種現象讓大眾過度關注聊天機器人的性格或安全性,卻忽略了早已滲透進軍事基礎設施的自動化系統。有觀點認為,AI 在此類場景中最大的負面作用是消解了責任制,當系統給出建議而人類僅需「點擊三次」即可執行時,這種設計會誘導決策者陷入「夢遊狀態」,在缺乏實質審查的情況下完成殺傷鏈。
針對技術細節,社群內出現了激烈的辯論。部分網友批評媒體將 Maven 與 Claude 混為一談是極其不專業的,因為 Claude 在 Palantir 的架構中僅作為情報摘要工具,並不參與雷達數據處理或目標配對。然而,反對者則認為這種區分在道德層面上毫無意義,無論是過時的資料庫還是自動化推薦系統,最終結果都是平民傷亡。更有評論者直言,這並非技術「幻覺」導致的意外,而是在發動突襲時,軍方為了追求速度而放棄了對目標進行多重驗證的官僚失職。
此外,資訊戰的真實性也成為爭論焦點。有留言者提醒,在缺乏獨立調查的情況下,外界獲取的傷亡數字與現場細節多源於伊朗官方或未經證實的社群媒體影像,應警惕各方勢力的宣傳操弄。但隨即有反駁意見指出,美軍並未否認造成傷亡,且衛星影像與過往紀錄皆證實該建築早在十年前就已改建為學校。這場討論反映出技術社群對「自動化殺傷鏈」的深層恐懼:當技術縮短了從發現到摧毀的時間,人類的道德判斷空間也隨之被壓縮。
延伸閱讀
- Artificial Bureaucracy (Substack):本文作者對「殺傷鏈」與軍事官僚體系的深度解析。
- The Charisma Machine:Morgan Ames 著作,探討技術如何吸引注意力並扭曲大眾認知。
- 972 Mag - Lavender AI:關於以色列軍隊在加薩使用 AI 系統進行目標選擇的調查報導。
- RUSI 報告:英國皇家聯合軍事研究所關於衝突中彈藥消耗與成本的統計分析。