4月9日、米国ワシントンD.C.の連邦控訴裁判所は、防衛省による Anthropic の「サプライチェーンリスク」表示を維持し、同社の執行停止(暫緩)申請を却下する判断を下した。AIの倫理的レッドラインと国家安全保障の定義をめぐるこの法廷闘争はいまだ決着していない。
(前提:裁判官は Anthropic を支持し、米国防省が「サプライチェーンリスク表示」で Claude を処罰することを禁じた)
(背景補足:Claude とは何か?費用、機能、Claude Code、Cowork 徹底解説 — 2026 Anthropic 最詳細ガイド)
この記事の目次
Toggle
4月9日、米国ワシントンD.C.の連邦控訴裁判所は、AI大手 Anthropic の執行停止(暫緩)の申請を却下し、防衛省が同社を「サプライチェーンリスク」としてリストに掲載する決定を維持するとの判断を下した。
裁判所の理由は直接的だ。政府がAIサプライチェーンを管理するうえでの国家安全保障上の利益が、Anthropic が被る財務上の損失よりも優先される。こうした表示は過去には、敵対国の企業、または潜在的な脅威となる実体に対して用いられるのが通常だったが、いまや米国内のAIユニコーン企業に降りかかっている。この象徴する意味は言うまでもない。
この出来事の発端は2025年7月にさかのぼる。Anthropic は、ペンタゴン(国防総省)と、2億ドルの契約を締結。自社のAIモデル Claude を Maven インテリジェンス・システムに統合し、情報分析や目標識別の任務の遂行を支援することになっていた。
しかし、両者は 2025年9月に交渉が決裂した。Anthropic は、2つの倫理的レッドラインの設定を主張している。すなわち、Claude を完全自動の兵器システムに使うことを拒否し、また国内監視に使うことも拒否する、というものだ。これらの立場は、トランプ政権の期待と根本的に衝突し、トランプはその後、ソーシャルメディアを通じて連邦機関に Anthropic の製品の使用を停止するよう命じ、さらに6か月の段階的な使用終了期間を設けた。
2025年末から2026年初にかけて、防衛省は正式に Anthropic をサプライチェーンリスクの名簿に掲載した。この表示は、Anthropic が政府の防衛関連の契約に参加する資格を直接的に断つことになった。
現在、この法律闘争には互いに矛盾する裁決結果が存在している。サンフランシスコの連邦裁判所は3月末に、Anthropic が非防衛目的の政府機関と協力し続けることを認める暫定差止命令を承認していた。だが、4月9日のワシントンD.C.の連邦控訴裁判所の裁決は、防衛省の封鎖(締め出し)姿勢を強化し、いかなる暫緩の余地も認めなかった。
これは、Anthropic が微妙な法的なはざまに置かれていることを意味する。つまり、一部の政府部門とは協力できる一方で、防衛契約の枠外に追いやられているのだ。Anthropic は、この案件が政治的な報復であり、憲法上の保障に反するとしており、今後も上訴を継続する方針だ。審理を加速する手続きが、次の段階での鍵となる。
ただし、電子工学系の業界誌の報道によれば、商業面では重大な打撃を受け、規模の大きな防衛契約に参加できない一方で、倫理的な立場を貫く姿勢のイメージが、一般ユーザーの市場ではむしろ好意的に受け止められている。AIの安全性に懸念を持つ企業や個人ユーザーをより多く惹きつけているのだ。
今回の判決の影響は、Anthropic という1社にとどまらない。より深い構造的な矛盾を浮き彫りにしているのだ。すなわち、AI開発者の倫理的枠組みと、政府が国家安全保障として定義するものとの間で衝突が起きたとき、現行の法体系の天秤は現状どちらに傾いているのか、すでに一つの初期的な答えが出ている。最終的な裁決は、テクノロジー産業全体が政府と協議しながら AI の使用の境界をどう定めていくのかに、深い参照価値をもたらすことになるだろう。