關於2025年10月所報導的運算成本的思索
運算成本的報導方式因是否包含基礎設施、硬體或多年期合約而異,一個 1 GW 的站點每年通常花費 90-110 億美元。到 2026 年,轉向吉瓦級規模的容量以及增加每個 Pod 的 HBM,將使模型的運算量和參數數量都能比 2024 年擴大 10 倍。
計算成本的報告方式多種多樣。一個 1 GW(吉瓦)的資料中心場地,其基礎設施(建築、冷卻、電力)成本約為 100-150 億美元,再加上 300-350 億美元的運算硬體(伺服器、網路、人工),此處假設使用 Nvidia GPU。基礎設施的使用壽命約為 10-15 年,在債務融資的情況下,開發商只需確保在 10-15 年內償還即可,每年約為 10-20 億美元。對於運算硬體,使用壽命視為約 5 年,即每年 60-70 億美元。營運支出(電力、維護)每年約為 20-25 億美元。
總計,1 GW 的算力每年成本約為 90-110 億美元,但支付運算硬體資本支出(capex)的一方需要確保支付持續 5 年,因此一份 1 GW 算力的合約期限將為 5 年,這使其成為一份至少 450-550 億美元的單一合約,若考慮到雲端服務商的利潤,金額可能會達到 550-650 億美元。
因此,1 GW 的算力可能會被報告為 100 億美元(基礎設施資本支出;或 AI 公司在一個曆年內的運算成本)、300 億美元(不含人工成本的運算硬體資本支出)、450 億美元(基礎設施加上運算硬體資本支出),或是 600 億美元(AI 公司與雲端服務商之間為期 5 年的合約總成本)。
一份 3000 億美元的合約 可能意味著約 5 GW 的總容量,而一個 270 億美元的資料中心場地 則可能同時意味著 2 GW 的總容量。此外,3000 億美元的合約並不代表 5 GW 的容量會立即建成,例如若初期僅建成 2 GW,這要求 AI 公司有能力每年支付約 250 億美元(持續 5 年),其餘 3 GW 則取決於 AI 公司的持續成長。
非 Nvidia 硬體
Nvidia 伺服器(1 GW 總計約為 5500 台 GB200 NVL72 伺服器,每台含 72 顆晶片,總計 40 萬顆晶片)佔用了約 200 億美元的資本支出,因此如果 Nvidia 約 70% 的毛利適用於這部分(實際可能較低,因為 GPU 並非伺服器的全部),則每 GW 的毛利為 140 億美元,或在 AI 公司與雲端服務商之間的 5 年合約中每年佔 28 億美元,約佔總額的 25%。這顯示在其他條件相同的情況下(實際上並非如此),非 Nvidia 運算的成本可能最多僅低 25%,儘管 GPU 通常被描繪成運算成本的大部分,而 Nvidia 的毛利則被視為 GPU 成本的大部分。
因此,一份涉及「數百億美元」和「超過 1 GW 容量」的 TPU 合約,可以解讀為一份為期約 5 年、每年約 120 億美元、提供約 1.2 GW 算力(總功率,而非僅 IT 功率)的合約。
2026 年的模型規模
如果新合約是針對 TPUv7 Ironwood,到 2026 年,Anthropic 將擁有 1 GW 的算力,每個 256 晶片 Pod 擁有 49 TB 的 HBM(高頻寬記憶體)。這與 OpenAI 的 Abilene 場地相當,後者擁有 1 GW 算力,每個 GB200/GB300 NVL72 機架擁有 14-20 TB 的 HBM,且也將在 2026 年達到此容量。目前 Anthropic 可以使用 AWS Project Rainier 的 Trainium 2 Ultra 伺服器,每個機架擁有 6 TB 的 HBM,而 OpenAI 的容量可能主要集中在每台擁有 0.64-1.44 TB HBM 的 8 晶片 Nvidia 伺服器上。
可行的模型規模隨伺服器/機架/Pod 的 HBM 增加而擴展,這構成了一個擴展世界(Scale-up world,特別是對於推理模型及其訓練而言),因此 2026 年不僅帶來比 2024 年多 10 倍的算力(GB200/GB300 NVL72 伺服器中的 40 萬顆晶片,而非 10 萬顆 H100),還帶來 10 倍大的模型(以總參數計)。由於運算最優(compute optimal)模型的活耀參數隨算力的平方根擴展,這使得 MoE(混合專家)模型能比 2024 年的算力實現更高的稀疏性,且較大模型的活耀參數數量在實踐中將不再受限於 8 晶片 Nvidia 伺服器(在 10 萬顆 H100 的情況下,運算最優性要求約 1T 的活耀參數,這對於擁有 1 TB HBM 的伺服器來說幾乎過多,而 MoE 模型則要求數倍於此的總參數)。
相關文章