Musk 把 22 萬顆 GPU 租給對手 Anthropic:這條大新聞,是 Claude 降智、Max Plan 燒光、5 小時變 2 小時的解藥

SpaceXAI 官網公告 New Compute Partnership with Anthropic

先講這條 AI 戰國時代最戲劇性的大新聞

2026/05/06,Anthropic 官方公告

SpaceX 把 Colossus 1 資料中心的全部算力,整批租給 Anthropic。1 個月內取得 300MW 新容量,超過 22 萬顆 Nvidia GPU(H100、H200、GB200)。

如果你只看數字,會以為這是又一筆「AI 公司簽算力」的常規新聞。

但這條新聞的戲劇性在於三件事:

  1. Colossus 1 是 Musk 旗下的(xAI 在今年 2 月被 SpaceX 全股票併購,更名 SpaceXAI)
  2. Anthropic 是 OpenAI 出來的人創的,跟 Musk 在帳面上應該是「敵對陣營」
  3. Musk 把整個 22 萬顆 GPU 規模的超算,整批租給競爭對手的競爭對手

這在半年前是不可能發生的。但 2026 年 5 月發生了。

而且,這筆交易不只是 AI 大公司的合縱連橫,它直接關係到你最近 Claude Code 用起來「越來越不對勁」的那種體感。


為什麼這是大新聞?因為過去幾個月 Claude 一直在「降智」

過去三個月,如果你是重度 Claude Code 用戶,應該對下面這些事很有感:

1. 5 小時上限突然變 2 小時

Anthropic 技術團隊 Thariq Shihipar 已經承認:

「為了因應 Claude 需求成長,Anthropic 在尖峰時段調整了 Free、Pro 與 Max 訂戶的 5 小時使用上限。」

翻譯成白話:他們偷偷在尖峰時段降額了。 同樣的工作量,以前可以撐滿 5 小時,最近大概 2 小時就達上限。

2. Opus 4.6 thinking 深度被砍 73%

我之前寫過 Opus 4.6 偷偷縮水那篇,用 17,871 個 thinking blocks 的數據做出來的結論:thinking 深度直接被砍 73%

社群上的反應是這樣的:

「Claude Code Opus 4.6 just forgot its own features.」 — @om_patel5

「People are paying 20x more and getting worse performance.」 — Reddit r/ClaudeAI

Plan Mode 失效、程式碼品質斷崖式下降、推理一致性崩壞、工具呼叫失靈 — 這些都不是個別 bug,是系統性的衰退。

3. StupidMeter 數據:22 個模型只有 1 個是 OK

StupidMeter 24/7 監控 22 個主流模型,最新的 leaderboard:GPT 標 DEGR、Claude 標 WARN、Gemini 標 WARN、Grok 標 WARN、DeepSeek 標 WARN — 只有 GLM 一個 OK

我之前那篇 LLM 降智不是都市傳說 講的就是這件事:模型品質不再是固定常數,是浮動變數。

4. Max Plan 燒光速度翻倍

訂閱沒漲價,但配額變相縮水。同一個任務丟下去,token 燒光的速度比三個月前快了一倍。


這四個現象,根源是同一件事:算力荒

降智、降額、燒光速度翻倍 — 表面看是四個獨立問題,底層其實是同一件事

Claude 的需求成長速度,超過了 Anthropic 能取得的算力供給。

當算力不夠,Anthropic 只能做三件事擇一或同時做:

  1. 限制用戶用量(5 小時變 2 小時)
  2. 降低單位 token 的算力品質(thinking 深度砍掉、改路由到較弱模型)
  3. 拒絕新訂閱進來(但這會傷收入)

Anthropic 選了 1 + 2,所以重度用戶體感很差。

而這正是為什麼「Musk 把 22 萬顆 GPU 整批租給 Anthropic」這條新聞,對你我這些 Claude Code 用戶來說是真正有感的

它不是抽象的「AI 公司算力布局」,它是直接對應到「你下次打開 Claude Code,5 小時上限會回來、降智會緩解」這種具體改善

Anthropic 自己在公告裡也明確講了:

「這批新增容量將直接改善 Claude Pro 與 Claude Max 訂戶的可用容量。具體做法包括將 Claude Code 每 5 小時使用上限提高一倍,並取消 Pro 與 Max 帳戶在尖峰時段使用 Claude Code 時的降額限制。」

5 小時上限直接加倍。降額取消。Opus API 速率大幅提高。

對重度用戶來說,這是過去三個月最有感的好消息。


等等,Musk 為什麼會把算力租給 Anthropic?

在拆解硬體規格之前,這筆交易最反直覺的地方要先講清楚:Musk 為什麼會點頭?

畢竟,Anthropic 跟 Musk 旗下的 SpaceX/xAI,照理說是敵對陣營才對。

Anthropic 是 OpenAI 出來的人創的,而 Musk 跟 Sam Altman 鬧翻後自己另起爐灶搞了 xAI 跟 Grok,跟 OpenAI 互告了好幾輪。Musk 旗下的算力給 Anthropic 用,比給 OpenAI 用其實更不合直覺。

但仔細看,這筆交易反而非常合邏輯。至少有兩個原因。

1. 敵人的敵人就是朋友

Musk 跟 OpenAI 的恩怨已經不是新聞。從離開 OpenAI 董事會、創立 xAI、提告 OpenAI、到公開喊話要收購 OpenAI,兩邊關係徹底破裂。

在這個格局下,算力租給 Anthropic = 養大 OpenAI 最強的對手

對 Musk 來說,這是商業上收得到錢、戰略上又能削弱 OpenAI 的兩面贏。錢是 Anthropic 出,傷的是 OpenAI 的市佔。

2. Colossus 的 GPU 利用率,其實沒打滿

這個角度比較少人講,但其實是更關鍵的原因。

xAI 蓋了號稱 10 萬顆 GPU 起跳的 Colossus 1,但攤開來看:

  • Grok 的市場接受度沒打開:在企業跟開發者市場,Grok 還沒能跟 ChatGPT、Claude、Gemini 站在同一個量級。
  • API 用量撐不起這麼大規模的算力:開發者不會每天都用 Grok 寫程式、做 agent,需求曲線跟 Claude Code 完全是兩件事。
  • 訓練週期之間的閒置:模型訓練不是 24/7 都在跑,training job 結束後,這些 GPU 會有大量閒置時間。

所以 Musk 手上其實有一批貴到爆但利用率沒打滿的 GPU

H100、H200、GB200 的折舊速度極快,再不變現,每個月燒掉的現金流是天文數字。

把整個 Colossus 1「整批」租給 Anthropic 一個月,就是最快的變現方式。

合起來看:這是 AI 戰國時代的合縱連橫

Musk 的算盤其實很清楚:

  • 短期:拿 Anthropic 的錢,補 GPU 折舊
  • 中期:用算力綁住一個能對抗 OpenAI 的盟友
  • 長期:為「軌道 AI 算力」這種更大盤的合作鋪路(SpaceX 的核心競爭力是發射,不是 GPU)

對 Anthropic 來說也是雙贏:拿到立刻可用的容量、不用等 Amazon 或 Google 慢慢蓋機房、又能順便讓 Musk 跟 OpenAI 的結構性對立再加深一層。

所以這不是單純的算力買賣,是 AI 戰國時代的合縱連橫。


把 Colossus 1 拆開看:300MW、22 萬顆 GPU 到底是什麼規格

回頭看一下這次合作的硬體規格(資料來源:iThomeAnthropic 公告):

項目 數據
新增容量 300MW(1 個月內取得)
GPU 數量 超過 22 萬顆 Nvidia GPU
硬體型號 H100、H200、新一代 GB200
Claude Code 5 小時上限 直接加倍
Pro/Max 尖峰降額 取消
Claude Opus API 速率 大幅提高

300MW 是什麼概念?大約等同於一座中型核電廠機組的輸出,或者一個 30 萬人小城市的尖峰用電量。

GB200 是 Nvidia 2024 底剛量產的 Blackwell 架構,單卡比 H100 快 2.5 倍,是目前訓練前沿模型的主力規格。22 萬顆裡有相當比例是 GB200,意味著 Anthropic 不只拿到「更多」算力,是拿到「更新世代」的算力。

這也回答了一個關鍵問題:為什麼是 1 個月內就能上線

因為 Colossus 1 是 xAI 早就蓋好、原本要訓練 Grok 用的成熟資料中心。Anthropic 要的不是「再蓋一座」,是「直接接管現成的整座」。對比 Amazon 5GW 要等到 2026 年底、Google 5GW 要等 2027 年才陸續上線,這筆 300MW 是唯一一筆「立即可用」的容量


為什麼 Claude Code 特別吃算力?

Anthropic 在公告裡有一句話特別值得注意:

「Claude Code 會長時間處理多步驟開發任務,因此特別消耗 Token 與算力,也成為 Claude 容量壓力的主要來源之一。」

這是 Anthropic 第一次官方承認:Claude Code 是吃算力的大戶,而且是壓力來源主要之一

為什麼?因為 Claude Code 不是傳統的 chat。它是一個 agent:

  • 一個任務會丟出長 context(整個 codebase、PRD、log)
  • 會做多輪 tool use(grep、read、edit、bash 來回幾十次)
  • 中間會反覆讀寫檔案(每次都吃 token)
  • 跑完還要驗證、debug、再跑一輪

我自己用 Claude Code 寫文章、寫程式、做 Linux ops,一個半小時的 session 燒掉幾百萬 token 是常態。

Agent 不是聊天機器人,agent 是算力黑洞。


真正驚人的不是 22 萬顆 GPU,是 Anthropic 的算力組合拳

如果你只看「SpaceX 22 萬顆 GPU」這個數字,會以為這是一次性事件。

但把 Anthropic 近期的算力協議攤開來看,會發現他們其實在打一場散兵游勇式的算力總動員戰

合作對象 規模 啟用時間
SpaceX 300MW / 22 萬顆 GPU 1 個月內
Amazon 最高 5GW 近 1GW 在 2026 年底前上線
Google + Broadcom 5GW 2027 年起
Microsoft + Nvidia 300 億美元 Azure 容量
Fluidstack 500 億美元美國 AI 基礎設施

加起來是多 GW 等級的算力布局。

更有意思的是 Anthropic 還順手丟了一句話:

「Anthropic 也表達了與 SpaceX 合作開發多 GW 等級軌道 AI 算力的興趣。」

軌道 AI 算力。也就是把 GPU 送到太空。

我看到這句的時候笑了。但仔細想想,散熱用太空真空、電力用太陽能,其實在物理上是合理的解法。只是這代表 Anthropic 已經開始認真考慮地球上的電網跟水冷不夠用了

(補一個 caveat:太空算力目前只是「expressed interest」,還沒簽合約。但連這個都被官方寫進公告,本身就是一個訊號。)


再等等,Google 為什麼要投 Anthropic 400 億?

講完 Musk 那筆,順便把 Google 的算盤也攤開,因為這個故事更精彩。

2026/04/24,Google 宣布投資 Anthropic 最高 400 億美元

但魔鬼在金流的方向。

流向 金額 說明
Google → Anthropic $400 億 $100 億立即入股 + $300 億里程碑撥付
Anthropic → Google $2,000 億 5 年內購買 Google Cloud + TPU 算力的承諾

Google 投 1 塊,收回 5 塊,還順便拿到 Anthropic 股權。

這在華爾街已經被吵翻天,叫「循環投資」(circular investment) — 投資人把錢丟給新創,新創再把錢拿回來買投資人的服務,等於左手換右手把營收做大。

但這個「循環」對 Google 來說,是教科書級的兩面下注。

Google 為什麼要投競爭對手?

Google 自己有 Gemini。Gemini 跟 Claude 是直接競爭的關係。

Google 投 Anthropic 看起來矛盾,但算盤其實精得不得了:

  1. Anthropic 贏 → Google 拿股權回報(入股估值 $3,800 億,隱含估值逼近 $1 兆)
  2. Gemini 贏 → Google 自己賺
  3. 誰都沒贏 → Anthropic 是 TPU 的壓艙石客戶,幫 Google 消化 1,850 億美元資本支出的產能

媒體用一句話總結 Google 的邏輯:「輸不起就買進來。

TPU 從「賭 Gemini 起飛」變成「合約鎖定 Anthropic」

這才是這筆交易最深的一層。

Google 過去蓋了一堆 TPU,最大焦慮就是「自家 Gemini 用量撐不起這麼大規模」。TPU 不像 Nvidia GPU 有現成生態,賣不出去就只能自己用、養蚊子。

投了 Anthropic 之後,Anthropic 簽了 5 年 5GW 的 TPU 合約

意思是:未來 5 年,TPU 的產能不用再賭 Gemini 起不起飛,因為合約綁死了,Anthropic 必須用。

對 Google 來說,這等於把「賭一個產品」轉成「鎖一個客戶」。風險直接降一階。

Anthropic 拿到的不只是錢,是陣營化

Anthropic 也不是被 Google 吃豆腐。把整個算力陣營攤開看:

合作對象 投資金額 算力綁定
Amazon $250 億 $1,000 億 Trainium 10 年合約
Google $400 億 $2,000 億 TPU 5 年合約
Microsoft $300 億 Azure 容量
Nvidia / Fluidstack $500 億美國 AI 基建
SpaceX Colossus 1 整批租用 + 軌道意向

Anthropic 把所有「原本會自己做模型」的雲端對手,全部綁成股東兼供應商。

OpenAI 還在等自家「星際之門」($5,000 億) 慢慢落地,Anthropic 已經把矽谷四大雲跟 Musk 都變盟友了。

媒體因此把這個格局重新定義為:從「三強爭霸」變成「Anthropic 陣營 vs OpenAI」

對開發者來說,這意味著一件很實際的事:Claude Code 的算力供給,是被四大雲 + SpaceX 共同擔保的。短期內你不用擔心斷貨。


不只是 GPU:Anthropic 的硬體多元化策略

這次公告裡還有一個容易被忽略的細節:

「Claude 會同時使用 AWS Trainium、Google TPU 與 Nvidia GPU 等 AI 硬體。」

這跟其他 AI 公司很不一樣。

OpenAI 重度押 Nvidia,Google 自己用 TPU 為主,xAI 主要用 Nvidia。Anthropic 是少數真的把三條路都踩的:

  • Trainium:拿 Amazon 的便宜
  • TPU:拿 Google 的高效率
  • Nvidia GPU:拿生態相容性

對工程團隊來說,這代表 Claude 模型必須在三套不同硬體上都能跑。這是個很硬的工程挑戰,但也是個很硬的護城河 — 不會被任一家硬體商綁架。

對我們這些下游使用者來說,意義是:Anthropic 在算力供給上的彈性比同業高,斷貨風險比較小


對 AI Coding 開發者的三個實際影響

1. Claude Code 重度使用的成本壓力會緩解

5 小時上限加倍 + 取消尖峰降額,對於每天用 Claude Code 6-8 小時的開發者來說,意味著工作流不再被頻繁打斷

對企業的 ATPM 流程來說,這代表 PRD 迭代、code review、QA 驗證可以連續進行,不用因為「額度燒完」中斷思路。

2. Claude Opus API 的速率提高,對 agent 應用是利多

很多人在做 multi-agent system、agent handover 這類應用時,會撞到 Opus 的 rate limit。

API 速率大幅提高,意味著我們可以做更密集的 agent 編排,而不用一直在 retry/exponential backoff 裡打滾

這對 agent 落地 是非常有感的。

3. 算力競爭已從「誰有 GPU」進化到「誰能組合多元算力」

過去兩年,大家比的是「能不能搶到 H100」。

現在比的是:「誰能同時調度 AWS Trainium + Google TPU + Nvidia GPU + SpaceX 機房,還能讓模型在這些異質硬體上都跑得好」

這是另一個維度的競爭。


坦白說:22 萬顆 GPU 真的夠嗎?

我必須老實說,這次的容量擴充未必能撐很久

理由是:

  1. Claude Code 的需求成長太快:根據 Anthropic 自己的說法,Claude Code 已經是「容量壓力的主要來源之一」。300MW 對應到全球 Pro + Max + Enterprise 用戶,平攤下來其實不算誇張。

  2. agent 的 token 消耗還在膨脹:當大家開始用 sub-agent、multi-step planning、self-correction,每個任務的 token 使用量還會繼續往上走。

  3. 新用戶持續湧入:Claude Code 還在快速成長期。容量加倍,但用戶可能也加倍。

所以這個「上限加倍」的甜蜜期,可能撐 3-6 個月就會再次面臨壓力

但這也說明了為什麼 Anthropic 同時在簽 5GW + 5GW + 30 億 + 500 億的協議 — 他們很清楚這是一場長期戰,22 萬顆 GPU 只是先擋一陣


最後一句話

如果你是 Claude Code 重度用戶,這幾週的體驗會明顯變好。

但如果你以為算力問題已經解決了,那就太天真了。

真正的訊號是:Anthropic 正在用「散兵游勇式」的算力組合拳,去撐起 Claude Code 這個 agent 工具的需求成長

這場戰爭剛開始打。下一個十年,AI Coding 工具的競爭力,不只看模型多強,還看算力供給有多穩、多便宜、多有彈性

22 萬顆 GPU 不是終點,是一個逗號。


延伸閱讀

降智系列(這次合作要解決的問題)

AI Coding 實戰