AI Frontier Shift 2025

GPT-5 可能仍是建立在 4o 的架構上。

根據 Semianalysis 的分析,OpenAI 自 2024 年 5 月的 GPT-4o 以來,似乎再也沒有成功完成一個 Full-scale Frontier Model 的訓練。”Orion”(外界猜測的 GPT-5)傳聞訓練失敗或不如預期

Semianalysis 的評論直白得令人心驚:OpenAI 的領先研究者在半年內,沒有完成過一次全新的大規模 Pre-training。

這不僅是算力或數據的問題。

當你把時間線攤開來看,會發現一個令人細思極恐的「巧合」——


OpenAI 的「大腦流失」時間線

  • 2024/05 Ilya Sutskever(共同創辦人、科學長)→ Safe Superintelligence Inc.(自行創業)
  • 2024/05 Jan Leike(Superalignment 團隊負責人)→ Anthropic
  • 2024/08 John Schulman(共同創辦人)→ Anthropic
  • 2024/09 Mira Murati(CTO,ChatGPT、DALL-E 關鍵人物)→ 離開探索中
  • 2024/09 Bob McGrew(首席研究長)→ 離職
  • 2024/09 Barret Zoph(研究副總裁)→ 離職
  • 持續中 Greg Brockman(共同創辦人、總裁)→ 長期休假

7 位核心人物,5 個月內離開。

這不是一般的人事異動。這些人是 OpenAI 的「大腦」——掌握 Scaling Law 鑰匙、擁有模型訓練直覺的靈魂人物。

Ilya Sutskever 和 Jan Leike 離開的時間點(2024/05),正好是 OpenAI 最後一次成功完成大規模訓練的時間點。

這不是巧合。

更值得注意的是去向:Jan Leike 和 John Schulman 都去了 Anthropic。

Jan Leike 離職時在推特上說了一句話:

「安全文化讓位於華麗的產品」(Safety culture took a backseat to shiny products)

這句話解釋了很多事情。


三家公司的現況

把視角拉遠,看看整個戰場。

OpenAI: GPT-5(代號 Orion)持續延遲。技術停滯的訊號越來越明顯。根據一份洩露的內部備忘錄,奧特曼坦言:「近期,從各方面來看,谷歌在大型語言模型上表現出色,尤其是在預訓練方面。」

所謂預訓練,是訓練生成式AI模型(無論是文本還是圖像)過程中的第一階段。在這一階段,研究人員會用網頁等大量數據「餵養」模型,讓它掌握數據之間的各種關聯。LLM 的開發與訓練流程中,預訓練和後訓練是關鍵。正因如此,在一段時間內,OpenAI選擇將更多精力轉向另一種新型AI架構——「推理模型」,這種模型雖然計算量更大,但有望輸出更優質的回答。

反倒是在預訓練領域,Gemini 3帶來了前所未有的推理深度。

Anthropic: 幾乎是 Gemini 3 同一個月,Claude Opus 4.5 發布,根據 WeirdML 測試結果,綜合能力提升 21%,推理成本下降 2/3,這是整個架構的全面提升,不只是微調

如果只看這些數據,你會覺得這是正常的市場競爭——有人領先、有人追趕、有人反超。但結合前面的離職潮時間線,畫面就完全不同了。


Anthropic 和 Google 的成果

Anthropic:Claude Opus 4.5 的成長

Claude 4.5 的表現(21% 性能提升 + 2/3 成本下降)不是簡單的微調能做到的。這暗示 Anthropic 已經找到了一條新的、能有效 Scale 的訓練路徑。

Claude Opus 4.5 Benchmark

Google:TPU 軟硬整合的長期佈局

Google 一直被嘲笑「有技術沒產品」,但他們做對了一件事:自己控制硬體。

Semianalysis 指出,Google TPU 架構帶來的訓練穩定性,可能是他們能持續產出新模型的重要原因。相比之下,OpenAI 依賴 NVIDIA GPU 集群,在訓練穩定性上可能處於劣勢。Gemini 3 Pro 的表現——特別是多模態推理和成本控制——證明 Google 的長期投資開始收割成果。

一句老話 , 看起來「人」才是 AI 公司的護城河


參考資料: