AI と サイバーセキュリティ の 最新動向まとめ

みなさん、こんにちは。今回は AI とサイバーセキュリティの最新動向についてお話しします。特に OpenAI と Anthropic という二大 AI 研究所が、この分野でどのような動きを見せているのかをわかりやすく解説しますね。

OpenAI と Anthropic、AI セキュリティ製品で競争激化

最近、OpenAI は高度な AI セキュリティ製品の開発をほぼ完了し、まずは限られたパートナー向けにリリースする準備を進めているそうです。一方で Anthropic は「Project Glasswing(プロジェクト・グラスウィング)」という内部プロジェクトを展開しており、こちらは悪意ある攻撃者に先んじて重大なソフトウェアの脆弱性を見つけ出すことを目的とした、非常に管理された取り組みとなっています。

この動きは、単なる AI の汎用的な活用から、攻撃と防御の両面で直接的に使えるセキュリティ製品へと両社がシフトしていることを示しています。つまり、AI がサイバー攻撃の「武器」としても「盾」としても使われる時代に入っているわけです。ここで重要なのは、こうしたツールを誰がコントロールし、もし問題が起きたときに誰が責任を取るのかという点です。

Anthropic の実績と Project Glasswing の狙い

Anthropic はすでに AI セキュリティツールの威力を示しています。過去のテストでは、同社の Claude Mythos Preview モデルが、OpenBSD の27年も放置されていたバグや FreeBSD の16年もの間修正されていなかったリモート実行の脆弱性など、広く使われているソフトウェアの数千もの重大な脆弱性を発見しました。

こうした成果を踏まえ、Anthropic は AI の進化スピードを考えると、こうした能力が安全に使われることを約束しない勢力にも広がる可能性があると警鐘を鳴らしています。実際、業界データによると AI を使ったサイバー攻撃は前年比で72%も増加し、2025年には87%のグローバル組織が AI 関連のセキュリティインシデントに直面しているとのこと。Project Glasswing は、そうした脅威に先手を打つための Anthropic の戦略的な取り組みと言えそうです。

AI セキュリティツールの「両刃の剣」問題

ここで難しいのは、同じ AI ツールが脆弱性を「守る」ために見つけることもあれば、「攻撃」に使うこともできる点です。例えば、Anthropic と MATS Fellows の共同研究では、Claude Sonnet と GPT-5 がイーサリアムのスマートコントラクトに対して、テスト上で460万ドル相当の攻撃シミュレーションを作成し、約3,000件の新しいコントラクトの中から2つの未知のゼロデイ脆弱性を発見したと報告されています。

こうした「二面性」があるため、両社ともに製品の提供を厳しく制限し、コントロールされた環境での展開を目指していますが、それが本当に悪用の拡散を防げるのかはまだ明確ではありません。

AI がサイバーセキュリティの世界で果たす役割は今後ますます大きくなりそうですが、その一方で、誰がその力を持ち、どう責任を取るのかという課題も浮き彫りになっています。これからの動向をしっかりウォッチしていく必要がありそうですね。

個人的には、AI の力でセキュリティが強化されるのは心強い反面、その技術が悪用されるリスクも高まっていることに注意が必要だと感じます。技術の進歩と倫理的な管理のバランスが今後の鍵になりそうです。引き続きウォッチしていきたいですね!