newsence

Anthropic 擴大與 Google 及博通的合作夥伴關係,獲取數個吉瓦規模的次世代算力

Hacker News·大約 13 小時前

我們已與 Google 和博通簽署一項新協議,預計從 2027 年開始提供數個吉瓦規模的次世代 TPU 產能,這項重大的算力基礎設施擴張將為我們的前沿 Claude 模型提供動力,並協助我們滿足全球客戶的強勁需求。

背景

Anthropic 近期宣布與 Google 及 Broadcom 擴大合作協議,預計從 2027 年開始部署數個吉瓦(Gigawatts)規模的次世代 TPU 算力。這項合作旨在支撐 Claude 模型日益增長的市場需求,其年化營收已從 2025 年底的 90 億美元激增至目前的 30 億美元。儘管 Amazon 仍是其主要的雲端與訓練夥伴,但 Anthropic 透過與 Google 的深化合作,進一步強化了其在多雲平台與多元硬體架構上的韌性。

社群觀點

針對 Anthropic 龐大的算力擴張計畫,Hacker News 社群展開了關於 AI 發展極限與資源效率的深度討論。部分樂觀主義者認為,演算法本身並無上限,只要擁有足夠龐大的運算集群,人類就能構建出具備通用學習能力的機器,進而理解整個宇宙。然而,這種觀點隨即引發了關於資源約束的質疑。反對者擔憂,在人類抵達「後稀缺時代」之前,可能會先撞上物理資源的牆,若實現強人工智慧所需的算力門檻超出了地球目前的承載能力,技術進步將陷入停滯。

社群中一個顯著的討論焦點在於,為何現在的 AI 基礎設施多以「電力消耗」而非傳統的運算效能指標來衡量。有觀點指出,電力已成為當前 AI 發展最核心的限制因素,因此以吉瓦為單位比使用每秒浮點運算次數(FLOPS)更能直觀反映資料中心的規模。以 Google 在 2024 年全球平均耗電量約 3.7 吉瓦為參考,Anthropic 此次簽署的數吉瓦合約,規模相當於 Google 基準耗電量的顯著佔比。這也暗示了未來 AI 產業的定價邏輯可能會從「標記數量」(Tokens)轉向以「處理能力」或「吉瓦時」為基礎的資源消耗模型。

此外,關於運算效率的爭論也十分激烈。有網友引用 1950 年代的觀點,將人類大腦與當時的電子大腦對比,指出若要以舊技術模擬大腦,需要極其龐大的空間與冷卻資源。雖然現今的技術已大幅縮減了體積,但目前的 AI 訓練方式在能源效率上仍遠遜於生物大腦。這引發了對現行架構是否正確的省思,部分評論者認為,雖然進化過程耗費了漫長的時間與能量,但最終產出的生物大腦在運行效率上仍是目前矽晶片難以企及的目標。

最後,財務風險也是社群關注的重點。隨著算力投入金額攀升至數百億美元,部分討論者預測,雖然目前營收增長強勁,但這種極高資本支出的模式可能導致第一場大型 AI 企業破產潮的到來。當現金燃燒的速度與算力回報不成正比時,市場將面臨嚴峻的修正壓力。

延伸閱讀

  • Paris Reidhead 於 1950 年代關於電子大腦與人類大腦對比的演講紀錄。
  • Back of Mind 專欄文章:探討 AI 定價單位從 Token 轉向處理能力的趨勢。
https://anthropic.com/news/google-broadcom-partnership-compute