メインコンテンツへスキップ
AI News 18分で読める

Anthropic vs Pentagon|AI安全性と軍事利用の衝突:2026年、シリコンバレーを二分する選択【時系列解説】

2026年2月、Anthropicは米国防総省(Pentagon)からの契約提案を正式に拒否した。

同じ月、OpenAIはPentagonの統合戦闘管理システム「Jamba」への技術提供を発表。AI業界の二大巨頭が、軍事利用という一線を挟んで真逆の道を選んだ。

この対立は単なる企業判断の違いではない。トランプ政権の大統領令、150万人規模のユーザー離脱運動、App Storeランキングの逆転。AI安全性をめぐる思想の衝突が、市場の構造そのものを変えつつある。

この記事はこんな人におすすめ
  • AI業界の地政学的動向を把握したいエンジニア・PM
  • AnthropicとOpenAIの思想的な違いを理解したい開発者
  • AIの軍事利用が技術選定にどう影響するか知りたいフリーランス

タイムライン:15ヶ月で何が起きたか

まず全体像を把握する。2025年1月のトランプ大統領令から2026年3月現在までの主要イベントを時系列で整理した。

この図の各イベントを、以下で詳しく見ていく。

Anthropicの立場:「安全性は交渉の対象ではない」

Anthropicの姿勢は創業時から一貫している。

2021年にOpenAIを離脱したDario Amodei(CEO)とDaniela Amodei(President)が設立したAnthropicは、Responsible Scaling Policy(RSP) を企業戦略の中核に据えている。利用規約(AUP)には軍事利用の明確な禁止条項があり、これは形式的なものではなく、技術的な安全性評価に裏打ちされた方針だ。

2026年2月のPentagon契約拒否に際して、Dario Amodeiは次のように述べた:

「我々のモデルが戦場で使われることを許容するなら、安全性研究に投じてきた数十億ドルは何だったのか。安全性は交渉の対象ではない」

この発言は、Anthropicが安全性を収益よりも上位に置くという姿勢を改めて示したものだ。PBC(Public Benefit Corporation=公益法人)という法人形態を選んでいることも、この思想と整合する。

Info

RSP(Responsible Scaling Policy)とは? Anthropicが2023年9月に策定した自主的な安全性基準。AIモデルの能力レベルに応じて「ASL-1」〜「ASL-4」の段階を設定し、各段階で必要なセーフガードを定義する。現在のClaude 4.xシリーズはASL-3に分類され、軍事転用リスクの評価は最も厳格な基準が適用される。

国防総省の反応:「シリコンバレーは協力すべき」

Pentagonの反応は明確だった。

ピート・ヘグセス国防長官は2025年7月の演説で、シリコンバレーのAI企業に対して「国家安全保障への協力は義務であり、選択ではない」と述べた。この発言はAnthropicを名指しこそしなかったが、軍事利用を拒否するAI企業への圧力と広く解釈された。

Pentagonの主張の根底にあるのは、中国との技術覇権争いだ。中国がAIの軍事応用を国家戦略として推進する中、米国の最先端AI企業が国防に協力しないことは「安全保障上の脅威」だとする論理である。

実際、国防総省は2025年度のAI関連予算を前年比40%増の$18Bに拡大。AI統合を最優先課題として位置づけている。

トランプ大統領令:ルールの土台が変わった

この対立の背景には、2025年1月20日に署名されたトランプ大統領令がある。

バイデン政権が2023年10月に発令した「AI安全・セキュリティに関する大統領令」(Executive Order 14110)を撤廃し、AI規制の大幅な緩和を実行した。具体的には:

  • AIモデルの安全性テスト報告義務の撤廃
  • 政府機関のAI調達に関する制限の緩和
  • 国防総省のAI統合を加速するための予算措置

この大統領令は、AI企業と軍の協力を妨げていた規制上の障壁を取り除くことを目的としていた。結果として、OpenAIのような企業が軍事契約に参入するハードルは大きく下がった。

一方で、この緩和がAnthropicのような「自主規制」で安全性を担保する企業にとっては、むしろ立場を明確にする契機となった。政府が規制しないなら、企業が自ら線を引くしかない。そのような判断だ。

OpenAIの方針転換:禁止から協力へ

OpenAIの転換は段階的に進行した。

2024年1月、OpenAIは利用規約から「軍事・戦争目的」の禁止条項を静かに削除した。当時の公式説明は「表現の整理」だったが、これが後の軍事契約への布石だったことは明らかだ。

2025年10月、ChatGPT Govをリリース。政府機関専用のクラウド環境でChatGPTを運用できるサービスで、FedRAMP High認定を取得。国防総省を含む連邦機関での利用を想定した設計だった。

2026年1月、JambaプログラムへのAI技術提供契約を締結。Jambaは米軍の次世代統合戦闘管理システムで、陸海空の戦場データをリアルタイムで統合・分析する。OpenAIの大規模言語モデル技術がこのシステムの情報分析レイヤーに組み込まれることになった。

Sam Altmanは契約発表時に次のように述べた:

「民主主義国家の安全保障に貢献することは、AIの責任ある発展と矛盾しない。我々は透明性を持って、安全に、民主主義を守るためにAIを活用する」

この発言は、Anthropicの立場と真っ向から対立する。安全性の定義そのものが異なるのだ。

法的分析:政府は企業に契約を強制できるか

Anthropicの拒否に対して、一部の議員は「政府調達法に基づく強制契約」の可能性に言及した。

米国法典10編3252条(10 U.S.C. §3252)は、国家安全保障上の緊急事態において、政府が民間企業に対して物資・サービスの提供を命じる権限を定めている。しかし、この条項がAI技術のようなソフトウェアサービスに適用された前例はなく、法的な不確実性が大きい。

専門家の見解は分かれる。

  • 適用可能派: AIモデルは「戦略的物資」に該当し、国防生産法(DPA)の枠組みで調達命令が可能
  • 適用困難派: ソフトウェアサービスは「物資」ではなく、強制は知的財産権の侵害にあたる可能性

現時点で、Pentagonは法的強制ではなく経済的・政治的圧力による協力を模索している。具体的には、政府契約を持つ企業との取引制限や、AI規制における発言力の行使だ。

市場への影響:QuitGPTとClaudeの躍進

この対立は市場にも大きな影響を与えた。

QuitGPT運動

2026年2月中旬、OpenAIのJamba契約が報道されると、SNS上で #QuitGPT が爆発的に拡散。「AIを戦争に使うな」というメッセージとともに、約150万人がOpenAI製品のアンインストールを宣言した。

Sensor Towerのデータによれば:

指標数値
ChatGPTアンインストール率前週比 +295%
Claude新規インストール前週比 +180%
Claude App Storeランキング1位(米国、2/18-2/24)

Anthropicへの追い風

皮肉なことに、Pentagonの契約を拒否したAnthropicは、この騒動で最大の受益者となった。

  • Claude App Store 1位獲得(2026年2月、米国)
  • エンタープライズ契約の問い合わせが前月比で急増(具体数は非公開)
  • ARRは$19Bに到達(2026年2月推定、TechCrunch報道)

倫理的な姿勢がブランド価値に直結した稀有な事例だ。ただし、この構図が持続するかは未知数である。軍事契約の規模は民間市場を凌駕する可能性があり、長期的にはOpenAIの選択が「正しいビジネス判断」だったと評価される可能性も否定できない。

他社の動き:Google、Meta、Palantirの立ち位置

主要プレイヤーの立場を整理する。

企業スタンス主な動き
Google消極的協力2018年のProject Maven撤退以降、軍事AIには慎重。ただしGoogle Cloudは政府契約を維持
Meta限定的協力Llama 3のオープンソース提供を通じた間接的な軍事利用は容認。直接的な契約は未確認
Palantir積極的協力AIプラットフォーム「AIP」をPentagonに提供。軍事AI分野のリーダーを自認
Microsoft全面的協力Azure Government、HoloLens IVAS等。OpenAIへの$13B+投資を通じた間接的関与も

注目すべきはGoogleの立ち位置だ。2018年にProject Maven(ドローン映像のAI分析)から社員の抗議を受けて撤退した経験があるGoogleは、軍事AIに対して最も慎重な姿勢を維持している。しかし、Google Cloudの政府契約は継続しており、完全な「非協力」とは言い難い。

日本への示唆:防衛省AI政策と企業への影響

この対立は太平洋を越えて日本にも波及する。

防衛省は「AI活用推進基本方針」のもと、以下の3領域でAI導入を進めている:

  1. 情報分析 — 衛星画像・通信傍受データのAI解析
  2. サイバー防衛 — 異常通信パターンの自動検知
  3. 後方支援 — 部品調達・補給計画の最適化

いずれも直接的な「殺傷」に関わらない領域だが、デュアルユース(軍民両用)問題は避けられない。情報分析AIが攻撃目標の選定に使われる可能性は常にある。

日本のAI企業(PKSHA Technology、Preferred Networks、AI insideなど)にとって、Anthropicの判断は一つのモデルケースになる。「軍事利用を拒否しても、むしろブランド価値が上がる」という実例は、倫理と収益のトレードオフに悩む経営者にとって重要な参照点だ。

一方で、日米同盟の文脈では、日本企業が米軍のAI統合計画に間接的に関与する可能性もある。この場合、利用規約の設計が企業リスクを左右する。

技術的論点:デュアルユース問題の本質

この対立の根底にあるのは、汎用AIのデュアルユース問題だ。

大規模言語モデルは本質的に汎用技術である。テキスト要約に使えるモデルは、軍事情報の分析にも使える。コード生成モデルはサイバー攻撃ツールの生成にも転用できる。技術そのものに「軍事用」「民間用」の区別はない。

この性質が、規制のアプローチを根本的に困難にしている:

  • 利用規約による制限: Anthropicのアプローチ。実効性は企業のモニタリング能力に依存する
  • 技術的なガードレール: モデル内に特定用途を制限する仕組みを組み込む。しかし汎用性との両立が難しい
  • 政府規制: バイデン大統領令のアプローチ。トランプ政権が撤廃したことで、現在は空白状態

AnthropicのRSPは、この問題に対する現時点で最も体系的な回答の一つだ。ただし、RSPは自主基準であり、法的拘束力はない。企業の意思決定が変われば、方針は変わりうる。

Anthropicの次の一手:商業的リスクと安全性のバランス

Anthropicにとって、Pentagon契約拒否は短期的にはリスクだ。

米国の防衛関連予算は年間$8,500B超。AI関連だけでも$18Bの市場がある。この市場を全面的に放棄することは、株主(Amazon、Google)への説明責任の観点からも容易ではない。

しかし、2026年2月の市場反応は、Anthropicの判断がブランド戦略として有効であることを示した。企業顧客の中には「安全性を重視するAIベンダーと取引したい」という需要が確実に存在する。特に欧州市場では、AI Actの施行(2025年2月)以降、軍事AI企業との取引を回避する動きが広がっている。

Anthropicが今後取りうる選択肢は:

  1. 現状維持 — 軍事利用の全面禁止を堅持。民間市場とAPI収益で成長を追求
  2. 限定的協力 — 非殺傷用途(翻訳、後方支援等)に限定して政府契約を受諾
  3. 独自の安全性フレームワーク提供 — モデルそのものではなく、安全性評価の方法論を政府に提供

現時点の公式方針は1だが、ARRの成長が鈍化した場合、2への移行圧力が強まる可能性はある。

まとめ:答えのない問いと向き合う

Anthropic vs Pentagonの対立は、AI産業が避けて通れない根本的な問いを突きつけている:

「最先端のAI技術は、誰が、何のために使うべきか」

  • Anthropicは「安全性のために使わない選択がある」と答えた
  • OpenAIは「民主主義を守るために使う」と答えた
  • Pentagonは「国家安全保障のために使わせるべきだ」と答えた

どの回答が「正しい」かは、価値観に依存する。技術的に確定的な答えはない。

確かなのは、この選択がAI企業のブランド、収益構造、人材獲得のすべてに影響を与えるということだ。QuitGPT運動とClaude App Store 1位という市場の反応は、「安全性」が差別化要因として機能しうることを実証した。

エンジニアやPMとして我々にできるのは、自分が使うAIツールの提供元がどのような思想で運営されているかを理解し、技術選定に倫理的な軸を持つことだ。それは、Anthropicを選ぶべきだという意味ではない。意思決定の材料として、この対立の構造を把握しておくことに価値がある。


本記事は2026年3月5日時点の公開情報に基づいています。状況は急速に変化しており、最新の動向は各社の公式発表をご確認ください。

出典・参考:

関連記事:

Share