| 本期觀點| 2026 年初,全球人工智慧產業發生一件重大震盪的事件,整個事件的核心,圍繞在因為兩家AI 巨頭 Anthropic 與 OpenAI,在面對美國國防部軍事合約的要求時,採取了截然不同的策略選擇。 根據公開說法與相關報導,Anthropic 因拒絕在合約中移除兩項安全限制,包括禁止模型用於大規模國內監控,以及拒絕授權模型嵌入全自動武器系統,最終未能與國防部達成合作。隨後,美國政府將其標記為「國家安全供應鏈風險」,引發業界對技術主權與行政權限界線的廣泛討論。 繼續閱讀⋯⋯ |
| Claude hits No. 1 on App Store as ChatGPT users defect in show of support for Anthropic’s Pentagon stance 這篇報導把「Anthropic 與 DoD 談判破裂」與「OpenAI 達成機密環境部署協議」串起來,指出部分 ChatGPT 用戶因倫理疑慮發起退訂與轉向,推升 Claude 在美國 App Store 免費榜衝到第 1。 | State Department switches to OpenAI as US agencies start phasing out Anthropic 報導也交代爭端核心在於 Anthropic 對「防止國內監控」與「自主武器」等護欄要求更硬,並提到 DoD 將 Anthropic 定性為供應鏈風險。 |
| OpenAI details layered protections in US defense department pact 文章在協議剛曝光時就整理 OpenAI 對外宣稱的「分層防護」與部署方式,讓外界得以對照:OpenAI 的限制多半以「合法範圍內」與既有法律框架為基礎,而不是像 Anthropic 主張的「明文禁止特定用途」。 | ChatGPT uninstalls surged by 295% after DoD deal 文章指出,在 DoD 合約消息擴散後,ChatGPT 手機 App 在美國出現明顯的卸載激增(以 2/28 為關鍵日),與社群上的「Cancel ChatGPT」呼聲相互印證。 |
本文依 CC 創用姓名標示 - 非商業性 - 相同方式分享 4.0 國際釋出