newsence

Google 員工尋求軍用人工智慧紅線,呼應 Anthropic 之舉

Hacker News·大約 1 個月前

Google 員工正尋求針對軍用人工智慧設定明確的紅線與倫理界限,此舉呼應了 Anthropic 內部的類似訴求。

背景

近期 Google 員工發起連署,要求公司針對軍事人工智慧的應用劃定明確的「紅線」,此舉呼應了 Anthropic 等 AI 企業內部的類似訴求。這封公開信反映出科技從業人員對於 AI 技術被用於戰爭或殺傷性武器的深切憂慮,並試圖在企業追求國防合約的趨勢下,重新建立道德防線。

社群觀點

針對 Google 員工的這項行動,Hacker News 社群呈現出極為兩極且帶有現實主義色彩的討論。部分評論者認為,雖然目前參與連署的人數僅約百人,看似微不足道,但所有重大的變革往往都始於少數人的堅持,隨後才逐漸擴大影響力。支持者指出,Google 過去曾有更改內部機密管理機制的先例,證明基層員工的訴求確實有機會推動體制內的改變。然而,這種樂觀情緒很快就遭到現實主義者的挑戰。反對意見認為,Google 早已承接多項既有的國防合約,所謂的「紅線」在許多層面上可能早已被跨越,現在才要求劃界似乎為時已晚。

討論中也觸及了權力結構的轉變。有觀點指出,雖然 Google 員工在幾年前曾成功迫使公司退出某些軍事計畫,但當前的政治與經濟環境已大不相同。隨著科技巨頭執行長與政府高層關係趨於緊密,加上勞工在當前市場環境下的議價能力減弱,這類抗爭的成效令人懷疑。甚至有悲觀的預測認為,參與連署的員工可能會在未來幾年內面臨被解僱的風險,而公司若真想進行具爭議性的軍事項目,大可透過程式碼隔離或專案封閉化等手段秘密進行,避開內部監督。

此外,關於技術與軍事關係的歷史辯證也是一大焦點。部分網友提醒,美國軍方長期以來一直是計算科學研究的主要贊助者,AI 技術與國防的結合並非新鮮事。對於那些無法接受公司承接軍事合約的員工,社群中出現了「道不同不相為謀」的聲音,認為最直接的做法是選擇離職,而非期待企業會為了少數員工的道德堅持而放棄龐大的國防市場。更有評論犀利地指出,如果人類必須依賴企業的「自我規範」來約束 AI 武器化,那麼人類的未來恐怕早已陷入僵局。這種論調反映出大眾對於企業早期標榜「不作惡」(Don't be evil)精神消逝的無奈與諷刺。

延伸閱讀

https://www.nytimes.com/2026/02/26/technology/google-deepmind-letter-pentagon.html