Project Insight 的現實翻版:Anthropic vs 五角大廈

作者: Wisely Chen 日期: 2026 年 2 月 28 日 系列: AI 治理 關鍵字: Anthropic, Pentagon, AI Ethics, Autonomous Weapons, Supply Chain Risk, AI Governance, Project Insight


目錄


十年前的科幻,昨天成了現實

這場衝突,讓我想起《美國隊長 2:酷寒戰士》。

2014 年的電影裡,有一個反派計畫叫「洞察計劃」(Project Insight)——三艘裝載了先進演算法的空天母艦,能即時分析全球每個人的數位足跡、銀行紀錄、通訊記錄、社群媒體,然後 AI 自動識別「潛在威脅」,AI 自動發射武器消滅目標。沒有審判,沒有人類判斷,純粹由演算法決定誰該死。

當年我們以為是科幻。

但在 2026 年的今天,它發生了。

五角大廈要求 Claude 可以用於「所有合法用途」——包括大規模國內監控和完全自主武器。把這兩件事加在一起,你得到的就是洞察計劃:AI 驅動的自動化目標選擇,加上自主武器發射。

差別只在於,電影裡是 HYDRA 在搞,現實中是你的政府在要求這個能力。


Anthropic 的兩條紅線:守住最後的底線

不管五角大廈如何施壓,Anthropic 宣佈拒絕移除模型中的兩大核心禁令:

禁止大規模國內監控

防止 AI 自動拼湊公民零散數據,形成完整的「數位生活畫像」。

Dario Amodei(Anthropic CEO)的原話:

“Current law permits the purchase of detailed movement and browsing records of individual Americans without a warrant. AI could assemble scattered data into comprehensive life pictures automatically and at massive scale.”

現行法律允許政府不需要搜索令就購買美國人的詳細行動軌跡和瀏覽紀錄。「合法」不等於「應該做」。法律允許的事,不代表你應該用最強大的 AI 工具來放大它的規模。

禁止完全自主武器

拒絕讓 AI 在沒有人類介入的情況下,擁有最終的「開火權」。

“Frontier AI systems are simply not reliable enough for fully autonomous weapons.”

注意,Anthropic 不是反對所有軍事用途。他們支持 AI 用在飛彈防禦、情報分析、作戰規劃。他們反對的是「完全沒有人類介入的自主殺傷決策」。

這兩條限制,到目前為止沒有影響過任何一個政府任務。

Anthropic 的堅持,讓現實版的 Project Insight 航空母艦不至於在昨天正式升空。

而 Anthropic 的角色,某種程度上就是那個拔掉晶片的人。


前所未有的報復

這場抗爭的代價巨大。

2026 年 2 月 27 日,星期五,Trump 總統在 Truth Social 上開砲:

“I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic’s technology. We don’t need it, we don’t want it, and will not do business with them again!”

他把 Anthropic 稱為「RADICAL LEFT, WOKE COMPANY」,並說「Anthropic 的左翼瘋子犯了一個災難性的錯誤,試圖強迫國防部遵守他們的使用條款而不是我們的憲法。」

大約一個半小時後,國防部長 Pete Hegseth 跟進,在 X 上宣佈供應鏈風險指定:

“Anthropic’s stance is fundamentally incompatible with American principles. America’s warfighters will never be held hostage by the ideological whims of Big Tech. This decision is final.”

這是史上第一次,美國本土公司被貼上過去只給「外國敵對勢力」的標籤。

這個「供應鏈風險」標籤意味著什麼?任何想跟美國軍方做生意的公司,都不能跟 Anthropic 合作。不只是失去 2 億美金的五角大廈合約——而是整個國防供應鏈的連鎖封殺。

對一個今年要 IPO 的公司來說,這是巨大的傷害。Anthropic 估值 3800 億美金,年營收 140 億。2 億合約不痛,但「供應鏈風險」這個標籤,可能讓無數企業客戶重新評估合作關係。

先講背景——Anthropic 跟五角大廈的關係其實一直很好。他們去年簽了價值 2 億美金的合約,Claude 是第一個也是唯一一個部署在美軍機密網路上的前沿 AI 模型。透過 Palantir 的安全雲端基礎設施,Claude 已經被用在情報分析、作戰規劃、網路安全等任務。Anthropic 甚至為了不讓中國公司用 Claude,放棄了數億美金的營收。

他們不是反軍方。他們跟軍方合作得很深。

但五角大廈的妥協方案,看起來像讓步,實際上「充滿了法律漏洞,允許這些保障措施被隨意繞過」(contained legalese that would allow those safeguards to be disregarded at will)。嘴上說「我們不會用在那些用途」,但不願意寫進有約束力的條款。

五角大廈的邏輯是:軍事決策由軍方做,不是由私人公司做。一位官員甚至直接說:

“You have to trust your military to do the right thing.”

你得相信你的軍隊會做正確的事。

但歷史上,「相信政府會做正確的事」這句話的可靠性如何?NSA 的 PRISM 計畫。Snowden 揭露的大規模監控。CIA 的增強審訊技術。每一次都是在「合法」的框架下進行的。


競爭對手的罕見聲援

即便是激烈的商戰對手,這次也選擇站在同一邊。

OpenAI CEO Sam Altman 公開支援這條紅線,強調 OpenAI 同樣拒絕 AI 用於自主殺傷和大規模監控。他在週四晚上給員工的備忘錄中寫道,如果被要求跨越同樣的紅線,OpenAI 也會拒絕。

更有意思的是,Altman 在週五的全員會議上透露,OpenAI 正在跟五角大廈談判一個新方案:由 OpenAI 自己建立一套「安全堆疊」(Safety Stack)——一個介於 AI 模型和實際使用之間的多層技術、政策和人類控制系統。如果模型拒絕執行某個任務,政府不會強迫 OpenAI 讓模型去做。

換句話說,Anthropic 被懲罰了,但 OpenAI 用同樣的紅線,卻可能拿到一份新合約。 這到底是什麼邏輯?

AI 大神 Ilya Sutskever 更感嘆。他是 OpenAI 的前首席科學家,後來離開創辦了 Safe Superintelligence Inc.(SSI),是 AI Safety 領域最有影響力的人之一。他在 X 上寫道:

“It’s extremely good that Anthropic has not backed down, and it’s significant that OpenAI has taken a similar stance. In the future, there will be much more challenging situations of this nature, and it will be critical for the relevant leaders to rise up to the occasion, for fierce competitors to put their differences aside.”

「這不是競爭,這是關乎未來的關鍵時刻。」激烈的競爭者們要放下分歧——因為未來會有更多更困難的情境,今天的兩條紅線只是開始。

超過 300 名 Google 員工和 60 名 OpenAI 員工簽署了公開信,要求公司領導層支持 Anthropic,拒絕無限制的軍事 AI 使用。Microsoft 和 Amazon 的員工也發出了類似的呼籲。

產業的反應——從 CEO 到工程師,從競爭對手到前員工——都在說同一件事:有些線,不能為了合約而跨過。


AI 公司不再只是工具商

Dario Amodei 的立場很明確:當技術尚不具備百分之百的可靠性時,強行將其用於致命武器是不負責任的。

如果你用過 Claude(或任何前沿 AI 模型),你知道它有時候會 hallucinate,有時候會過度自信地給出錯誤答案,有時候會被 prompt injection 劫持。現在想像一下:這樣的系統,在沒有人類監督的情況下,被授權做出「開火 / 不開火」的決策。

過去,軟體公司就是工具提供者。你賣一把錘子,買家拿去蓋房子還是砸人,不是你的責任。但前沿 AI 模型有自主決策能力,它不只是工具,某種程度上更像是一個「數位員工」。

五角大廈主張:「所有合法用途」。

Anthropic 主張:「守住人類尊嚴的門檻」。

Anthropic 這次其實在劃一條線:模型提供者不只是賣工具,而是在提供一個具有判斷能力的系統,因此有義務為這個系統的行為設定邊界。這跟我之前寫過的 AI Agent 安全性文章 的觀點一致——當 AI 有了自主行動能力,安全責任的歸屬就根本改變了。

這場衝突也暴露了一個尷尬的事實:美國在 AI 軍事使用方面,並沒有明確的法律框架。 這跟歐盟的 AI Act 形成鮮明對比——歐盟明確禁止了某些 AI 用途,給企業提供了清楚的紅線。美國沒有類似的法律,所以這些紅線只能由個別公司自己畫,然後每次都要跟政府重新談判。這不是一個可持續的模式。


令人戰慄的寒蟬效應

這引發了一個令人戰慄的問題:

如果堅持倫理原則會被政府列入風險名單,未來的開發者還敢對權力說不嗎?

Anthropic 員工的反應讓人看到一些希望——技術團隊在事件爆發後公開表示支持公司立場,強調「這家公司在外界看不見的地方,一直在堅守價值觀」。但不是每家公司都有 Anthropic 的規模和底氣。

如果五角大廈想用「懲罰 Anthropic」來殺雞儆猴,目前看來效果適得其反。但長期呢?當下一家小公司面對同樣的壓力,沒有 3800 億估值撐腰,沒有 Sam Altman 公開聲援,他們還敢說不嗎?


坦白說

我寫這篇文章的立場不是完全中立的。

我是 Claude 的重度使用者,我用 Claude Code 寫了超過 63 萬行程式碼。我對 Anthropic 這家公司有很深的認同——不是因為他們的模型最強(雖然確實很強),而是因為他們一直在做一件很難的事:在商業壓力下堅守技術倫理。

但我也理解五角大廈的擔憂。軍事 AI 的決策權不應該由私人公司單方面控制。這是一個合理的立場。問題是,解決方案不應該是「逼廠商移除安全限制」,而應該是「建立一個雙方都能接受的治理框架」。

電影中,當 Nick Fury 解釋 Project Insight 可以提前消滅威脅時,Steve Rogers 說:

“This isn’t freedom. This is fear.”

“This isn’t the kind of world I want to live in.”

Dario Amodei 在聲明中說了一句話,我覺得值得每一個做 AI 的人記住:

“We cannot in good conscience accede to their request.”

「我們無法憑良心同意他們的要求。」

世界正在轉變。我們選擇哪一個?


延伸閱讀