Anthropic 拒簽、OpenAI 接手:AI 的最終解釋權究竟在誰手中?

| |

2026 年初,全球人工智慧產業發生一件重大震盪的事件,整個事件的核心,圍繞在因為兩家AI 巨頭 Anthropic 與 OpenAI,在面對美國國防部軍事合約的要求時,採取了截然不同的策略選擇。
根據公開說法與相關報導,Anthropic 因拒絕在合約中移除兩項安全限制,包括禁止模型用於大規模國內監控,以及拒絕授權模型嵌入全自動武器系統,最終未能與國防部達成合作。隨後,美國政府將其標記為「國家安全供應鏈風險」,引發業界對技術主權與行政權限界線的廣泛討論。
而在 Anthropic 退出後,OpenAI 迅速承接相關軍事項目,並在「一切合法用途」的框架下與國防部簽署密級合作協議。OpenAI 表示,將透過雲端部署隔離機制與工程監管流程,降低模型被直接整合至武器系統的風險。此舉被外界視為務實合作路線,也象徵美國政府在戰略 AI 能力上的優先排序。
但是,就在這場合約爭議曝光後,其影響迅速擴散到消費市場。在社群平台上,很快就出現名為「QuitGPT」的行動,部分用戶表達對資料安全與企業價值立場的疑慮。
此外,根據應用程式商店的數據顯示,ChatGPT 下載與訂閱數量,在這期間出現明顯的短期波動,而 Anthropic 旗下的 Claude,在很短的時間裡成為美國App Store 免費下載的榜首。

一個關鍵詞引發事件的爭端
這個事件其實已經超越單純的商業合約層面,同時觸及到 AI 技術治理、國家安全與企業責任之間的複雜關係。突顯出把 AI 被視為戰略資產時,企業與政府之間的權責分配將面臨新的制度考驗。
根據公開的資料顯示,Anthropic 拒絕在最終版本中移除兩條核心安全限制:第一條是避免模型被用於國內大規模監控,第二條是拒絕授權模型直接嵌入全自動武器系統。
這個爭議的焦點不在於「是否支持國防」,而在於「AI 安全紅線是否可以被重新定義」。導致事件發生是起因於合約中的一個關鍵詞:「一切合法用途」。
從法律文字來看,這句話沒有違法疑慮,但在實務操作層面,它將模型應用範圍的最終解釋權交由行政機關,而非技術供應商。這意味著,原本由工程師與風險團隊界定的安全邊界,可能被迫轉為事後監督。
而國防部要求的條款版本將合法性作為唯一限制條件,也未保留模型層級的使用場景排除機制,因此,這已經是一種治理邏輯的轉換。換句話說,企業談的是模型可靠性閾值與風險容忍度,而政府談的是戰略必要性與可接受風險。

工程風險與戰略風險,其實是在用兩種不同的標準看待同一件事。
從技術角度來說,就算一個 AI 模型的錯誤率非常低,只要它被放進一連串很多步驟的決策流程中,出錯的機會就會累積。每多一個判斷環節,風險就多增加一次。換句話說,單次看起來很小的錯誤機率,到了整個系統層級,可能就不再那麼小。這不是抽象的道德討論,而是很基本的機率與系統運作原理。
但在國家安全的思考方式裡,問題往往不是「會不會出錯」,而是「就算會出錯,我們能不能承擔這個代價」。當地緣政治緊張升高,各國都在加速發展 AI 軍事能力時,政府更傾向把 AI 當成戰略資產來評估,而不是一般商業產品。在這種情境下,風險被重新計算,優先順序也會跟企業的工程標準不同。

供應鏈風險標籤:意義不只是一紙公文
在 Anthropic 拒絕修改合約條款之後,被政府標記為「國家安全供應鏈風險」。這種標籤過去多半用在外國企業,或是掌握關鍵零組件的半導體公司。但這次卻落在一家美國本土 AI 公司身上,讓不少產業觀察者感到震撼。
這是一種態度轉變,當 AI 被視為戰略技術,政府評估企業的標準就不再只是商業能力,而是能否「完全配合國家安全需求」,原本企業擁有的技術自主,可能因此被重新界定。
有法律專家指出,《國防生產法》在理論上可以要求企業在特定情況下提供必要服務。這就可能會出現一個新矛盾:同一家公司,一方面被貼上潛在風險標籤,另一方面卻又被視為不可或缺。
接下來的美國司法判決,將影響整個 AI 產業,如果法院支持政府,未來 AI 公司在軍事項目上的談判空間勢必縮小;如果支持企業,則可能建立一個重要先例,讓私人技術在面對國家要求時,仍保有一定主權。
這場爭議的核心不光是合約細節,更大的問題在於: AI 成為國家戰略資產之後,技術主權到底還剩下多少空間。

OpenAI 的選擇:把安全放進系統裡
就在 Anthropic 退出之後,OpenAI 很快與美國國防部達成合作。根據 OpenAI 公開說明,OpenAI 接受「合法用途」這個大框架,但同時強調,會透過技術設計來降低風險,包括雲端隔離部署、明確的使用審核流程,以及由工程師駐場監管,避免模型被直接嵌入武器系統核心。
換句話說,OpenAI 並沒有在合約文字上畫出明確紅線,而是選擇在技術架構層面設下控制機制。
這也清楚顯示兩家公司在安全策略上的差異:
Anthropic 是把安全界線寫進合約條款,先把規則講清楚。
OpenAI 則是把安全設計進系統架構,透過流程與技術手段來管理風險。
前者強調「邊界先定義好」;後者則是「在框架內動態控管」。兩種做法並不只是風格不同,而是對風險分配方式的不同理解。

市場反應:信任變成真正的籌碼
就在這個軍事合作消息曝光後,社群平台上出現名為「QuitGPT」的行動。不少使用者公開表示要停止訂閱或轉換工具。此時,應用程式商店的數據也出現波動:ChatGPT 的卸載率在短時間內上升,約 70 萬名付費用戶取消訂閱;同一時間,Claude 的排名快速往前衝。這個轉移,重點不在於功能高低,而是在於價值選擇。
部分用戶擔心,自己的對話資料是否可能被納入軍事情資分析流程;但也有人質疑,公司是否偏離了當初強調「造福人類」的方向,這些疑慮都讓技術問題變成信任問題。
隨後 Anthropic 推出「Switch without starting over」功能,讓使用者可以快速匯入過去的對話紀錄。這個設計的關鍵在於,把轉換門檻降到最低。當遷移變得簡單,道德立場就更容易轉化為實際行動。
很明顯的工具上線後,轉移速度加快了,這也透露出一個新的競爭現實:在 AI 市場裡,信任已經開始變成可以影響收入與排名的資產。模型能力仍然重要,但信任結構正在成為決定用戶去留的關鍵因素。

技術嵌入與合約脫鉤
你可能沒有想過,這個事件的真實情況,比合約本身更複雜。因為,在軍方系統中早已整合多家 AI 模型技術,包含情資分析與輔助決策工具。即使政治層面有出現爭議,部分作戰流程仍持續運作,並未立即停用既有模型。
這反映一個現實:當模型已被整合進關鍵基礎設施,替換成本往往遠高於終止合約的成本。要更換系統,不只是換供應商,還涉及資料串接、流程重建與人員訓練。技術依賴一旦形成,就會產生慣性,短時間內難以切割。
也因此,技術主權與作戰效率,在這裡出現彼此拉扯。一方面,政府希望重新掌握主導權;但實際運作層面則離不開既有系統的穩定性。

市場分化成兩種 AI 生態
在這場事件發生後,產業開始出現明顯分流。一類是高度依賴國防與政府預算的 AI 公司,收入來源穩定,重點放在合規、安全與可控部署。另一類則強調倫理原則與全球民用市場,將信任與品牌立場視為核心資產。
這並非單純的品牌選擇,而是所處制度環境不同。當 AI 被視為戰略資產,企業必須決定自己要在哪一套規則之下發展。
如果軍事體系高度依賴私人企業的模型,那技術主權是否仍然完整?至於模型更新節奏、安全設計與系統調整是掌握在企業手中時,國家安全是否會反過來受到企業決策影響?
這些問題,將隨著 AI 與國家體系的整合程度加深而更加明顯。

AI 憲法時刻
此次合約危機,更像是一場制度壓力測試。它逼著整個產業與政府面對幾個無法迴避的問題。
● AI 的最終解釋權究竟在誰手中?是企業工程團隊、政府機關,還是司法體系?
● 安全邊界應該在合約簽署前就明確寫死,還是等爭議發生後再由法律裁定?
● 當用戶用訂閱費表達立場時,企業是否還能把「信任成本」視為次要因素?
從結果來看,OpenAI 拿下華盛頓的合作機會;Anthropic 則在消費市場獲得大量關注。但真正的分水嶺並不在合約歸屬,而是在於未來規則如何被重塑。

AI 已經不只是提升效率的工具,而是逐漸成為權力結構的一部分。當一家公司的服務條款,可能影響軍事部署與國家安全策略,傳統的監管框架就顯得不夠用。此時,商業法、國安法與科技治理,會開始交錯在一起。
所以,把 2026 年稱為「AI 憲法時刻」並不誇張。未來的競爭,不只看模型多強、成本多低,更看誰能建立讓社會信任的規則。
數位主權與國防需求之間的拉扯,不會因一份合約爭議而結束。能否找到一套同時兼顧創新、安全與市場運作的制度才是關鍵。否則,下一次衝擊影響的,可能不只是排名或市佔率,而是整個規則本身。


.

Cover image created with AI
本文依 CC 創用姓名標示 - 非商業性 - 相同方式分享 4.0 國際釋出
Previous

科技創業週報 #521:訂閱型 AI+AI 代理人工作流,重寫一人公司的成長上限

發佈留言

Share via
Copy link
Powered by Social Snap