2025 AI 前沿模型格局大洗牌:當「人」才是真正的護城河

GPT-5 可能仍是建立在 4o 的架構上。
根據 Semianalysis 的分析,OpenAI 自 2024 年 5 月的 GPT-4o 以來,似乎再也沒有成功完成一個 Full-scale Frontier Model 的訓練。”Orion”(外界猜測的 GPT-5)傳聞訓練失敗或不如預期
Semianalysis 的評論直白得令人心驚:OpenAI 的領先研究者在半年內,沒有完成過一次全新的大規模 Pre-training。
這不僅是算力或數據的問題。
當你把時間線攤開來看,會發現一個令人細思極恐的「巧合」——
OpenAI 的「大腦流失」時間線
- 2024/05 Ilya Sutskever(共同創辦人、科學長)→ Safe Superintelligence Inc.(自行創業)
- 2024/05 Jan Leike(Superalignment 團隊負責人)→ Anthropic
- 2024/08 John Schulman(共同創辦人)→ Anthropic
- 2024/09 Mira Murati(CTO,ChatGPT、DALL-E 關鍵人物)→ 離開探索中
- 2024/09 Bob McGrew(首席研究長)→ 離職
- 2024/09 Barret Zoph(研究副總裁)→ 離職
- 持續中 Greg Brockman(共同創辦人、總裁)→ 長期休假
7 位核心人物,5 個月內離開。
這不是一般的人事異動。這些人是 OpenAI 的「大腦」——掌握 Scaling Law 鑰匙、擁有模型訓練直覺的靈魂人物。
Ilya Sutskever 和 Jan Leike 離開的時間點(2024/05),正好是 OpenAI 最後一次成功完成大規模訓練的時間點。
這不是巧合。
更值得注意的是去向:Jan Leike 和 John Schulman 都去了 Anthropic。
Jan Leike 離職時在推特上說了一句話:
「安全文化讓位於華麗的產品」(Safety culture took a backseat to shiny products)
這句話解釋了很多事情。
三家公司的現況
把視角拉遠,看看整個戰場。
OpenAI: GPT-5(代號 Orion)持續延遲。技術停滯的訊號越來越明顯。根據一份洩露的內部備忘錄,奧特曼坦言:「近期,從各方面來看,谷歌在大型語言模型上表現出色,尤其是在預訓練方面。」
所謂預訓練,是訓練生成式AI模型(無論是文本還是圖像)過程中的第一階段。在這一階段,研究人員會用網頁等大量數據「餵養」模型,讓它掌握數據之間的各種關聯。LLM 的開發與訓練流程中,預訓練和後訓練是關鍵。正因如此,在一段時間內,OpenAI選擇將更多精力轉向另一種新型AI架構——「推理模型」,這種模型雖然計算量更大,但有望輸出更優質的回答。
反倒是在預訓練領域,Gemini 3帶來了前所未有的推理深度。
Anthropic: 幾乎是 Gemini 3 同一個月,Claude Opus 4.5 發布,根據 WeirdML 測試結果,綜合能力提升 21%,推理成本下降 2/3,這是整個架構的全面提升,不只是微調
如果只看這些數據,你會覺得這是正常的市場競爭——有人領先、有人追趕、有人反超。但結合前面的離職潮時間線,畫面就完全不同了。
Anthropic 和 Google 的成果
Anthropic:Claude Opus 4.5 的成長
Claude 4.5 的表現(21% 性能提升 + 2/3 成本下降)不是簡單的微調能做到的。這暗示 Anthropic 已經找到了一條新的、能有效 Scale 的訓練路徑。

Google:TPU 軟硬整合的長期佈局
Google 一直被嘲笑「有技術沒產品」,但他們做對了一件事:自己控制硬體。
Semianalysis 指出,Google TPU 架構帶來的訓練穩定性,可能是他們能持續產出新模型的重要原因。相比之下,OpenAI 依賴 NVIDIA GPU 集群,在訓練穩定性上可能處於劣勢。Gemini 3 Pro 的表現——特別是多模態推理和成本控制——證明 Google 的長期投資開始收割成果。
一句老話 , 看起來「人」才是 AI 公司的護城河
參考資料:
- iThome: OpenAI共同創辦人Ilya Sutskever離職
- CNBC: OpenAI CTO Mira Murati announces she’s leaving
- Sherwood News: Is OpenAI worth $150 billion without the employees who built it?
- WeirdML Claude 4.5 測試結果
- Semianalysis 報導