2026年が近づく中、大手サイバーセキュリティー企業Wallarm(ワラーム)は、世界中の専門家から知見を集め、組織が直面するであろう最も過小評価されているセキュリティー上の課題を予測した。専門家の間では、AI駆動型システムと自律エージェントの相互接続の増加が、多くの組織が備えていない重大な脅威をもたらすという点で一致している。以下、その概要をお伝えする。
著名なサイバーセキュリティーの著者であり起業家でもあるJane Frankland氏が提起する主要な懸念事項の一つは、自律エージェントがもたらすリスクだ。これらのAI駆動型システムは、人間の可視性なしに重要な意思決定を行う可能性があり、マシンツーマシンのサプライチェーンにリスクをもたらす。さらに憂慮すべきことに、Frankland氏は、これらのエージェントが組織内で個人に合わせた持続的な行動誘導を可能にする可能性について警告している。これは、攻撃者がAIエージェントを利用してワークフローを操作し、人間の意思決定を巧妙に方向転換させ、従来のセキュリティー対策では検出できないガバナンスの欠陥を生み出すことにつながる可能性がある。
これらのAIシステムの相互接続性によって、リスクはさらに増大する。これらのシステムが複数のモデル、ツール、サービスにまたがってタスクを連鎖させると、リスク面は劇的に拡大する。Replicatedのセキュリティー担当副社長であるAndrew Storms氏は、多くの組織が依然として独立したコンポーネントを念頭に置いており、自律型AIエージェントのエコシステムにおける敵対的攻撃の連鎖を著しく過小評価していると警告している。たった1つの命令が侵害されると、それが波及し、既存のセキュリティー管理や説明責任体制では検知できない方法で悪意のある意図を増幅させたり、方向転換させたりする可能性がある。
しかし、組織が警戒すべきはAIがもたらす脅威だけではない。Quantum Mergersのヘッド情報セキュリティーアーキテクトであるDesiree Michelle氏は、真の危険はAIエージェントの使い方にあると警告している。技術の進歩によって私たちは過度に信頼するようになり、ツールへの依存度が高まりすぎて、レジリエンス(回復力)を維持するために不可欠な警戒を失ってしまう可能性がある。この過度の信頼は、セキュリティーチームが頼りにしているニュアンス、解釈、文脈的なインサイトをAIが奪ってしまうことも多いため、セキュリティーに関する意思決定の質を低下させる可能性もある。
出典:Wallarm
この製品の詳細については、Wallarm製品ページをご覧ください。