AI 企業 Anthropic と 米国防総省 の法廷闘争最新情報
みなさん、こんにちは。今回は、AI企業 Anthropic とアメリカ国防総省(ペンタゴン)との間で起きている注目の法廷闘争についてお話しします。
Anthropic が国防総省の主張に反論
Anthropic は先週金曜日、カリフォルニアの連邦裁判所に二つの宣誓供述書を提出しました。これは、国防総省が Anthropic を「国家安全保障にとって受け入れがたいリスク」と断定したことに対しての反論です。Anthropic は、政府側の主張は技術的な誤解に基づいており、そもそも交渉の過程で問題視されていなかった点を持ち出していると指摘しています。
この供述書は、Anthropic が国防総省を相手取って起こした訴訟の返信書類とともに提出され、3 月 24 日にサンフランシスコの裁判官リタ・リンの前で開かれる審理に向けたものです。
争点の背景と交渉の経緯
この争いは 2 月下旬にさかのぼります。当時、トランプ前大統領と国防長官のピート・ヘグセス氏が、Anthropic が軍事利用を無制限に認めなかったことを理由に関係を断つと公表しました。
供述書を提出したのは、Anthropic の政策責任者サラ・ヘック氏と公共部門担当責任者ティヤグ・ラマサミ氏です。ヘック氏は元ホワイトハウス国家安全保障会議のスタッフで、交渉の場にも立ち会っていました。
Anthropic の主張のポイント
ヘック氏は、政府側が「Anthropic が軍事作戦に対して承認権を求めている」と主張している点を「事実無根」と断言しています。交渉中にそのような要求は一切なかったと述べています。また、国防総省が「Anthropic が作戦中に技術を停止・変更する恐れがある」と懸念している点も、交渉では一度も出てこなかったと指摘。裁判資料で初めて出てきたため、反論の機会がなかったとしています。
さらに、3 月 4 日に国防総省の高官が Anthropic の CEO に「両者は自律兵器や大規模監視に関する問題でほぼ合意に近い」とメールで伝えていたことも明らかにしました。ところが、その後国防総省は交渉は終了したと公に発表しており、タイミングの不一致が注目されています。
技術的な安全性の説明
ラマサミ氏は、Anthropic の AI モデル「Claude」が政府の管理下にある「エアギャップ(隔離)システム」で運用されており、Anthropic 側が遠隔操作で停止や変更を行うことは技術的に不可能だと説明しています。つまり、リモートのキルスイッチや裏口は存在せず、モデルの変更には国防総省の明確な承認と作業が必要だということです。
また、Anthropic は政府ユーザーの入力内容を閲覧したりデータを抜き取ったりすることもできないと述べています。さらに、外国籍の従業員がいることを理由に安全保障上のリスクとする政府の主張に対しては、Anthropic のスタッフは米政府のセキュリティクリアランスを受けており、機密環境向けの AI モデルを構築した唯一の AI 企業であると反論しています。
訴訟の争点と今後の展開
Anthropic は、今回の「サプライチェーンリスク指定」が、同社の AI 安全性に関する公の見解に対する報復であり、言論の自由を保障する米国憲法修正第 1 条に違反すると主張しています。一方、政府側はこれを否定し、Anthropic の軍事利用制限は単なるビジネス判断であり、国家安全保障上の正当な措置だとしています。
この問題は、AI 技術の軍事利用と安全保障のバランス、そして企業の言論の自由が絡む複雑なテーマです。今後の裁判の動きや両者の主張の行方に注目が集まっています。
個人的には、AI の軍事利用に関する透明性や技術的な安全担保の議論がより深まることが重要だと感じます。Anthropic と国防総省のやり取りは、その一端を垣間見せているように思いますね。引き続きウォッチしていきたいですね!
