川普封殺令下的矛盾:Claude AI 仍在伊朗空襲中使用
美國前總統川普下令聯邦機構停用 Anthropic 的 Claude AI,但數小時後,美軍卻仍在伊朗空襲中使用該 AI,形成強烈對比。事件核心源於 Anthropic 與美國國防部在 AI 應用上的分歧,Anthropic 拒絕將其 AI 模型用於大規模監控或全自動武器系統,而川普政府則要求完全開放。
根據《華爾街日報》報導,美軍中央司令部 (CENTCOM) 在空襲伊朗的行動中,持續使用 Claude 進行情報分析、目標辨識與作戰模擬,凸顯 AI 在軍事中的深度整合。Anthropic 執行長達里奧·阿莫迪 (Dario Amodei) 將「供應鏈風險」的指定形容為「打擊報復、前所未有」,並已宣布提告。然而,由於 Claude 已深度整合在軍方的機密情報平台中,短期內難以即時拔除,反映了政治命令與技術現實之間的複雜關係。此事件不僅揭示 AI 在現代戰爭中的深度應用,更引爆一場關於科技倫理與國安界限的激烈爭論。
Anthropic 的立場與挑戰:拒絕軍事用途的紅線
Anthropic 拒絕向軍事用途妥協,堅守 AI 倫理紅線,並挑戰政府的禁令,反映科技公司在 AI 軍事化問題上的立場。根據《華爾街日報》報導,美國前總統川普下令聯邦機構停用 Anthropic 的 Claude AI 之後,美軍中央司令部(CENTCOM)仍在對伊朗的空襲任務中使用 Claude,顯示 AI 系統與軍事行動的深度整合,難以在短時間內移除。
Anthropic 執行長 Dario Amodei 將政府的「供應鏈風險」指定形容為「打擊報復、前所未有」,並強調公司堅守對美國價值的承諾,拒絕將 AI 用於大規模監控或全自主武器。
這與數位時代的報導形成對照,該報導指出,Anthropic 的 Claude Code 在 GitHub 上的提交量快速增長,顯示其技術實力。然而,Anthropic 的立場與美國國防部的要求產生衝突,後者希望 AI 技術能不受限制地用於軍事目的。Anthropic 拒絕妥協,並宣布提告,挑戰政府的禁令。同時,OpenAI 和 xAI 也獲得了軍方機密網路的授權合約,但同樣保留了對大規模公民監控和自主武器的限制條款。這起事件凸顯科技公司在 AI 軍事化問題上的兩難,如何在追求技術發展的同時,堅守倫理底線,避免 AI 成為戰爭工具。
軍方深度整合的挑戰:技術棧的複雜性
由於 Anthropic 公司拒絕向美國軍方提供不受限制的 AI 技術使用權,引發與川普政府的衝突,最終導致川普下令聯邦機構停用其 AI 聊天機器人 Claude。然而,根據《華爾街日報》報導,在禁令發布後的數小時內,美軍中央司令部(CENTCOM)仍在對伊朗的空襲任務中使用 Claude 進行情報分析、目標識別與作戰模擬。這突顯 AI 系統在軍事中的複雜性,以及政治命令在技術執行上的挑戰。
這項禁令源於 Anthropic 對其 AI 模型的應用設下限制,禁止用於大規模監控美國公民,以及全自主殺傷性武器。但五角大廈希望完全開放使用,雙方因此產生分歧。由於 Claude 已深度整合在軍方的機密情報平台中,立即抽離面臨技術上的困難。分析師指出,軍方的工作流程涉及大量廠商與系統,一道政治聲明無法在一夜之間重組整個技術棧。Anthropic 將此供應鏈風險的指定形容為「打擊報復、前所未有」,並已宣布提告。與此同時,五角大廈已迅速轉向,OpenAI 的 ChatGPT 和 xAI 的Grok 模型均取得軍方機密網路的授權合約。
本文引用《華爾街日報》的報導,說明在川普下令停用 Claude 後,美軍仍在使用的情況,佐證 AI 系統在軍事應用中的深度整合,以及政治命令在技術執行上的挑戰。報導的立場偏向中立,旨在呈現事實,並未對事件做出過多價值判斷。
OpenAI 與 xAI 的機會:填補空白
在 Anthropic 因拒絕向軍方提供不受限的 AI 服務,遭川普政府封殺後,OpenAI 的 ChatGPT 和 xAI 的 Grok 模型迅速獲得軍方授權,填補了 Anthropic 留下的空白,這突顯 AI 軍事應用市場的激烈競爭。根據《華爾街日報》報導,儘管川普下令聯邦機構停用 Anthropic 的 Claude AI,但美軍中央司令部(CENTCOM)仍在對伊朗的空襲任務中使用 Claude,用於情報分析、目標辨識與作戰模擬。這顯示,AI 模型的深度整合使得即時移除變得困難。
Anthropic 執行長 Dario Amodei 將此供應鏈風險的指定形容為「打擊報復、前所未有」,並已宣布提告,挑戰此禁令。與此同時,OpenAI 的 ChatGPT 和 xAI 的 Grok 模型迅速獲得軍方機密網路的授權合約,但兩者也同樣保留了禁止大規模公民監控和自主武器的限制條款。這起事件凸顯科技公司在軍事 AI 應用上的道德考量與商業利益之間的複雜關係,以及在快速變動的 AI 軍事應用市場中,科技公司之間的合作與競爭。
科技倫理與國家安全的角力:AI 發展的十字路口
美國政府與科技公司在 AI 軍事應用上的衝突,反映科技倫理與國家安全之間的緊張關係,也引發對 AI 發展方向的深刻思考。這場衝突的核心,源於 Anthropic 公司拒絕向美國軍方提供不受限制的 AI 技術,特別是其 AI 模型 Claude,用於大規模監控或全自主武器系統。然而,在川普總統下令聯邦機構停用 Claude 之後,美軍卻被報導仍在對伊朗的空襲中使用該 AI 模型,這凸顯 AI 技術在軍事領域的深度整合,以及在國家安全考量下,科技倫理所面臨的挑戰。
根據《華爾街日報》報導,Claude 被用於情報分析、目標識別和作戰模擬等關鍵任務,顯示其在軍事決策中的重要性。Anthropic 認為,政府的禁令是「打擊報復、前所未有」的行為,並已提起訴訟,挑戰「供應鏈風險」的指定。與此同時,OpenAI 和 xAI 等公司則迅速與軍方簽訂合約,儘管它們也承諾遵守類似的倫理限制。這場爭端揭示 AI 發展的兩難:一方面,AI 技術在軍事上的應用可以提升國家安全;另一方面,不受控的軍事 AI 可能引發倫理問題,甚至威脅人類的生存。這場衝突也促使人們重新思考 AI 發展的優先順序,以及如何在科技進步與倫理道德之間取得平衡。
參考閱讀
別學寫程式了?Claude Code負責人曝「代碼100%給AI寫」:一兩年內,會不會coding已不重要,數位時代 • 1 小時前
別學寫程式了?Claude Code負責人曝「代碼100%給AI寫」:一兩年內,會不會coding已不重要, 數位時代 via Yahoo奇摩新聞
Claude Code為什麼那麼強?2張圖表看懂,Anthropic營收成長速度將超越OpenAI, 數位時代 via Yahoo奇摩新聞
Anthropic發布23頁Claude Code指南!數據視覺化、產品開發、行銷等10大領域,實戰操作建議一次收, 數位時代 via Yahoo奇摩新聞