
Anthropic 計劃擴大使用 Google Cloud 的技術,包括專為 AI 量身打造的加速器 TPU(Tensor Processing Unit)用量擴充達到 100 萬顆,以提升運算資源,持續推進 AI 研究與產品開發。Anthropic 稱這項擴展價值達數百億美元,預計在 2026 年帶來超過 1GW 電力規模的算力。
Anthropic 的運算策略聚焦於多元化架構,除 Google 的 TPU 外,還有 AWS(Amazon Web Services,亞馬遜雲端運算服務)的 Trainium、NVIDIA 的 GPU,Anthropic 靈活運用 3 大晶片平台。
業界估計 1GW 電力規模的資料中心,成本約為 500 億美元,其中大約 350 億美元用於運算晶片。相較於競爭對手 OpenAI Stargate(星際之門)計畫目標建構 10GW 電力規模的算力,Anthropic 也急起直追,確保 Claude 模型能力持續提升,同時維持與產業各方的合作關係。
值得關注的是,亞馬遜是 Anthropic 的主要訓練夥伴與雲端供應商,雙方持續開發 Project Rainier,這是橫跨美國多個資料中心、擁有數十萬顆 AI 晶片的超大型運算叢集,Anthropic 強調仍致力於與亞馬遜的合作夥伴關係。
Anthropic 已為超過 30 萬家企業客戶提供服務,其中「大型帳戶」(意指每年營收貢獻超過 10 萬美元的客戶)數量在過去一年成長近 7 倍。這項擴展有助於 Anthropic 滿足迅速增加的客戶需求。更強大的運算資源將支撐更嚴謹的各項測試、模型對齊研究,以及大規模、負責任的資源部署。
「Anthropic 與 Google 長期合作,這次最新擴展幫助我們持續成長,提供推進先進 AI 所需的算力。」Anthropic 財務長 Krishna Rao 表示,「從《財富》500 強到 AI 新創公司,我們的客戶都依賴 Claude 完成最關鍵的工作,而這次擴充的算力可確保我們在需求呈現指數成長的同時,讓模型持續居於產業最前線。」
「Anthropic 選擇大幅擴充 TPU 使用量,反映出我們團隊多年來在 TPU 上所見的卓越效能與成本效益。」Google Cloud 執行長 Thomas Kurian 指出,「我們將持續創新,提升 TPU 的效率與產能,進一步拓展我們成熟的 AI 加速器產品組合,其中包括第七代 Ironwood TPU。」
Anthropic 與 Google Cloud 最初在 2023 年宣布建立合作夥伴關係,Anthropic 使用 Google Cloud 的 AI 基礎架構訓練模型,並透過 Google Cloud 的 Vertex AI 平台與 Google Cloud Marketplace 向企業提供模型與技術。如今在算力需求激增下,擴大採用 Ironwood TPU 在內的 AI 加速器。
(首圖來源:Google Cloud)