Anthropic美軍之間的拉鋸,最近突然從「合約談判」升級成一場公開對峙:一邊是五角大廈(文中多以「戰爭部/國防體系」的報導用語出現)希望 AI 在軍事任務中能被「所有合法用途」動用;另一邊是 Anthropic 堅持 Claude 可以協助國安,但有兩條線就是不能跨:禁止用於美國境內大規模監控、禁止整合進致命性完全自主武器。
更尷尬的是,在川普下令聯邦機關停用 Anthropic 的同一時間帶前後,外媒報導美軍指揮體系仍被指「正在使用」Claude 進行情報評估、目標辨識與作戰場景模擬,甚至被連結到對伊朗的軍事行動。這讓「AI 到底在戰場上扮演什麼角色」不再是抽象辯論,而是具體到每一個決策環節的敏感問題。

發生了什麼事:從「合約談不攏」到「聯邦停用」
根據多家媒體整理,衝突的表面原因很清楚:國防體系要求 Anthropic 放寬 Claude 在軍事系統中的使用限制,甚至開出最後期限,要求 Anthropic 撤回對「自主武器」與「對美國公民大規模監控」的限制。Anthropic 沒有點頭。
接著,川普在 Truth Social 發文,指示各聯邦機關立即停止使用 Anthropic 的 AI 技術,並提到給特定機關6 個月過渡期逐步退場。同日,國防體系也把 Anthropic 指定為「供應鏈風險」,並延伸到承包商與合作夥伴層級:不得與 Anthropic 進行商業活動,但在過渡期內仍需支援交接。
另一方面,市場很快出現替代方案:報導指出 OpenAI 隨後與五角大廈達成協議,將 AI 模型部署到機密網路,並以「技術性防護措施」確保符合規範。
為什麼大家在討論:兩條紅線,卡住的是戰場決策與民主邊界
Anthropic 的立場核心是「可以幫忙,但不能失控」。執行長 Dario Amodei 對外重申,公司支持以 AI 協助國安與民主國家防衛,Claude 也已被用於情報分析、模擬推演、作戰規畫等任務;但針對兩個用途,他認為風險過高:
- 美國境內大規模監控:Anthropic 指出,生成式 AI 可能把分散資料自動拼接成完整的個人行為圖像,對民主自由構成新型風險。
- 完全自主武器:Anthropic 認為現階段前沿 AI 的可靠性與可驗證安全水準不足,不宜在無人類介入下進行目標選擇與攻擊決策,否則可能危及軍人與平民。
國防體系的反駁方向也很直球:軍方主張應能將 AI 用於「所有合法用途」,不該被私營企業的政策框住。當兩邊都把論點拉到「國安」與「價值」層次,談判自然很難只用商業條款解決。

重點整理:時間線、爭議導火線與「美軍仍在用」的矛盾
一條時間線:最後通牒、公開聲明、停用令與過渡期
- 2/24:報導指國防部長 Pete Hegseth 與 Amodei 會面後,對 Anthropic 下最後通牒,要求在特定期限前同意放棄道德護欄。
- 2/26:Amodei 發布聲明,表示支持國安合作,但不撤除「境內大規模監控」與「完全自主武器」紅線,也提到若遭移除願協助平順轉換供應商。
- 2/27:川普下令聯邦機關停用 Anthropic;國防體系宣布將 Anthropic 列為供應鏈風險,並提及6 個月退場/交接期。
兩個導火線:核武情境與追捕行動,雙方各說各話
中央社引述華盛頓郵報披露,一場會議把問題逼到極限:若有 ICBM 朝美國發射,軍方是否能用 Claude 協助飛彈防禦。五角大廈官員描述 Amodei 的回覆讓軍方不滿;但 Anthropic 發言人否認該說法,並表示公司已同意允許 Claude 用於飛彈防禦。
此外,多篇報導都提到 Claude 曾被用於追捕委內瑞拉領導人馬杜洛的行動,這也加深 Anthropic 內外對軍事應用「界線在哪」的焦慮。相關事件在不同報導中對人物身分的稱呼略有出入(有的寫「委內瑞拉總統」、有的寫「前總統」),可確認的是:這次案例成為爭議升溫的代表事件之一。
最尷尬的一段:停用令下來了,但「美軍仍離不開」
多家報導(含《華爾街日報》相關內容轉述)指出,美軍全球指揮機構(包含中東中央司令部)使用 Claude 進行情資評估、目標辨識與作戰模擬。也因此才出現一個政治上很刺眼的畫面:白宮態度強硬,國防體系卻被指仍在實務上仰賴同一套工具。
至於 Claude 是否「直接用於」對伊朗的攻擊決策、或具體用在什麼系統,現有資料多以「知情人士說法/拒絕評論」呈現,細節仍有限;但至少可以看出:AI 已經不是「可有可無的輔助」,而是被放進決策流程裡的關鍵零件。
後續觀察:這場 anthropic美軍衝突,可能改寫什麼?
- 國防 AI 的供應鏈會更分散:報導提到五角大廈已接觸其他大型 AI 公司評估替代方案。把單一模型放進機密系統運行,等於把風險與話語權集中在同一家公司,這次事件很可能促使軍方「多家並用」。
- 「紅線」會變成產業標配,還是談判籌碼?:Anthropic 把底線講得很清楚,OpenAI 則被描述為用折衷方案推進合作(部署於機密網路、加入安全機制、維持人類對武力決策權等原則)。接下來更值得看的是:政府採購會偏好哪一種模式?以及「能否被稽核」會不會成為新門檻。
- 民主社會的難題不只在戰場:致命性自主武器的爭議很直觀,但「境內大規模監控」其實更貼近日常。當生成式 AI 能把零碎資料拼成完整行為圖像,界線怎麼畫、誰來監督、如何追責,會是更長期的政治與法律難題。
懶人包
- 爭議核心:Anthropic 允許 Claude 協助國安與軍事任務,但堅持兩條紅線——禁止美國境內大規模監控、禁止完全自主武器。
- 政府動作:川普下令聯邦機關停用 Anthropic;國防體系將其列為「供應鏈風險」,並給特定機關6 個月過渡期。
- 軍方實務:多篇報導指美軍指揮機構長期使用 Claude 進行情報評估、目標辨識與作戰模擬,甚至被連結到對伊朗行動,形成「政策與現場」的尷尬落差。
- 談判導火線:核武攻擊/飛彈防禦情境的會議說法出現分歧;另有追捕委內瑞拉領導人馬杜洛的案例,被視為加劇內部疑慮的事件之一。
- 替代方案:報導指出 OpenAI 已與五角大廈達成協議,將模型部署至機密網路並加入安全機制,快速補上供應缺口。
