重要なポイント
世界ではかつてないスピードでデータが生成され続け、人間の能力ではもはや、そこからインサイトを引き出して理解することが追い付かなくなっています。2028年までに世界全体のデータ量は約400ゼタバイトに達し、そのうち55%以上がマシン間の通信によって生成されると予測されています。企業にとってこれは、ストレージだけでなく、組織の存続にも関わる問題です。データ量が急増して有意義なインサイトを生み出せなくなるという「データの混乱」状態に直面し、それが壊滅的な損害につながる可能性があるからです。実際、世界全体で年間約4,000億ドルの損失をもたらすという試算もあります。
そして今日、さらに大きなリスクをともなう状況へと移行しつつあります。世界は今、AIの時代からエージェント型AIの時代に移ろうとしています。それは、複雑なタスクをAIシステムが人間と協力しながら自律的に実行できるようになりつつある段階です。その背景には、エージェントベースシステムの急速な進歩と普及があります。
これまで、セキュリティのアプローチは主に事後対応型でした。つまり、データを管理し、従来のAIを利用して脅威を検出し、対応するというやり方です。それは、干し草の山から針を見つけるような作業でした。問題が発生してから、その原因を突き止めるために膨大な量の情報を調査するのですが、多くの場合、その作業には大量の時間とリソースが必要になります。
この状況を一変させるのがエージェント型AIです。エージェント型AIを活用すれば、データをより効果的に管理できるだけでなく、予測と予防というプロアクティブな態勢に転換することもできます。インシデントが起きてから対応するのではなく、リスクを予測し、パターンを特定して、問題が発生する前に予防策を講じることができます。
フォーブスグローバル2000企業のダウンタイムコストは合計で年間4,000億ドルに達すると推定されます。しかし、それ以上に大きな問題となるのがイノベーションの停滞です。多くの組織にとって真の問題は、財務的な損失よりも、新しいイニシアチブに着手できないことです。現在、多くの組織では、ダウンタイムとデータのサイロ化によってイノベーションが阻害され、優秀なエンジニアが、将来に向けた取り組みではなく、現状を維持するための作業で手一杯になっています。
シスコは、組織が抱える大量のマシンデータは大量のインテリジェンスが埋もれた未開拓の「金鉱」であると考えています。これらのインテリジェンスを活用することで、運用に変革を起こし、MTTD (平均検出時間)を事後対応のメトリクスから予測のメトリクスに変えて、問題が未然に防がれたことを示す「マイナスのMTTD」を達成することを目指しています。
IDC社の予測によると、エージェント数は2028年までに13億に達すると見込まれます。チャットでやり取りするだけの従来のAIとは異なり、エージェント型AIは、データセンターからネットワークやエッジに至る組織のインフラ全域にわたって自律的に推論を行い、アクションを実行します。たとえば「決済サービスにどんな問題が起きてる?」と尋ねると、エージェント型AIが問題を切り分け、アクションプランを策定し、複数のデータソースを分析し、実用的なインサイトを提示します。これはまさに変革です。
一方で、この変革はさらなるデータの混乱をもたらします。さまざまなAIアーキテクチャが複雑さを増幅させます。たとえば、マシンスピードで自律的にアクションを実行するには、防御態勢にも同じスピードが求められます。また、エージェントが高速に動作しながらも規制に違反しないように、コンプライアンスを徹底する必要があります。AIを信用できなければ、AIを活用することはできず、むしろ大きな負債になってしまいます。
エージェントエコシステムは、人間による処理を想定したツールでは管理できません。お客様からは毎日のように、エージェント型AIを導入するには何が必要かと尋ねられます。その答えは、マシンデータを分析し、推論を行い、そこからインサイトを引き出す基盤となるデータ戦略です。

Webster Bankは、この変革を実践している企業の好例です。Splunkプラットフォームを活用して、組織のITインフラ、アプリケーション、デジタルバンキングサービスで生成される大量のマシンデータを収集、監視、分析しています。Splunkの分析機能を使えば、アノマリ検出、セキュリティ脅威の特定、アプリケーションパフォーマンスの監視をリアルタイムで行えます。このアプローチにより、インシデントのMTTRが大幅に短縮され、チームは問題にすばやく効率的に対処し、多くの場合は顧客に影響が及ぶ前に解決できるようになりました。今後は、AI機能の導入拡大とともに、これらのツールを強化して、さらにプロアクティブなインシデント管理をサポートしていく計画です。マシンデータを実用的なインテリジェンスに変えることにより、Webster Bankでは、サービスの信頼性と規制コンプライアンスが向上しただけでなく、自動化によって創造性と成長を促進する文化も醸成されました。
Webster BankはAIの全面的な導入に着手したばかりですが、将来的にはSplunkを中心にイノベーションを推進していく予定です。AIドリブン機能の成熟とともに、特にSOC (セキュリティオペレーションセンター)において、検出、トリアージ、対応をさらに迅速化することで、データ窃取や悪質な脅威に対処し根絶することを目指しています。
もう1つご紹介したいのが、あるグローバルeコマースプラットフォーム企業の事例です。このプラットフォームでは、数千ものパートナーのエンドポイントと連携した取引を毎日数百万件規模で処理していますが、決済プロセスに大きな問題を抱えていました。小さな障害(パートナー側のタイムアウト、ルーティングの変更、厳格すぎる不正対策ルールなど)が、瞬く間に広範囲にわたる決済エラーにつながり、直接的な収益の損失を引き起こすだけでなく、顧客からの信頼が低下する可能性もありました。ビジネスメトリクス、ログ、ネットワーク設定、不正対策ポリシー、パートナーのパフォーマンスデータが異なるツールやオーナーに分散していたため、インシデントが発生しても、セキュリティチームは状況をエンドツーエンドで可視化できず、手作業でこれらのデータを相関付ける必要がありました。その結果、調査に時間がかかり、その間も影響が広がり続けました。
こうした問題の解決に役立つのが、Cisco Data Fabricのような、AIネイティブの運用基盤です。断片化されたシグナルをつなぎ合わせて1つの統合的な「生きたモデル」を構築することにより、複雑さを解消できます。このようなファブリックでは、マシンデータレイクやデータ統合をナレッジグラフと組み合わせることで、ビジネス、パートナーAPI、アプリケーション、ネットワーク、不正対策システム、セキュリティドメインをまたいでテレメトリを相関付けることができます。決済プロセスのエンドツーエンドの運用モデルを構築すれば、AIによって、遅延や再試行の急増などの異常を検出してコンテキストに沿って分析したり、パフォーマンス低下の問題をドメインをまたぐインタラクションのレベルまで追跡したり、MCP (Model Context Protocol)を介したエージェントワークフローによって関連システムや最近の変更に関する信頼できるリアルタイムのコンテキストを取得したりできます。
この運用データファブリックは、最終的に、リアクティブなトラブルシューティングからプロアクティブなレジリエンス構築への転換を促進します。これにより、チームは、個々の技術的メトリクスではなく、共通のビジネス成果を指標として連携できるようになります。
AIエージェントが急速に進化する中で組織のレジリエンスを強化するには、新しいアーキテクチャを基盤に新しいデータ戦略を構築する必要があります。ここでは、技術的なアーキテクチャではなく、お客様がデータ戦略から得られる重要な成果に重点を置いて説明します。
データ量が「途方もない規模」に達すると、従来のアーキテクチャでは、包括的に可視化するか、それとも現実的な予算に収めるか、という極めて難しい選択を迫られることになります。解決策は、インテリジェントなデータ管理、統合機能、マシンデータレイクの連携にあります。この3つは、Cisco Data Fabricの主要コンポーネントでもあります。
汎用のLLMは、自然言語処理には優れていますが、マシンデータ固有の特性に合わせた処理を行うには難があります。そこでシスコは、Cisco Deep Time Series ModelやFoundation AI Security Modelなど、マシンデータに特化してトレーニングした新しいクラスのAIモデルを開発しています。その目的は、人間のオペレーターを模倣することではなく、人間が追跡できない規模で運用されるシステムを追跡できるAIを構築することです。サイバーセキュリティに特化したデータでトレーニングされた基盤モデルなら、何週間もかけてカスタマイズしなくても、重大度に基づいてアラートを分類したり、攻撃のタイムラインを再構築したり、断片的なログをつなぎ合わせて明確なストーリーに要約したりできます。これは、単にログを読み取るだけのAIではなく、ログを生成したサービス、そのサービスが収益に与える影響、組織独自の運用環境の完全なコンテキストを理解するAIです。

シスコは、認知負荷の高いインターフェイスからの脱却を目指しています。その先にあるのが、複数のドメインをまたいで状況を可視化し、ユーザーが自然言語を使ってシンプルに操作できる、統合的なAI Canvasです。これにより、運用の効率を飛躍的に高めることができます。
このマルチプレイヤーコラボレーション環境では、AIネイティブのワークスペースを通じて、ネットワーク運用チーム、セキュリティ運用チーム、IT運用チームがリアルタイムで連携できます。各チームは、AIアシスタントと自然言語で対話し、トラブルシューティング時には、AIが生成したダッシュボードで構成される共有キャンバスで作業できます。リアルタイムでコラボレーションできるため、無数のスクリーンショットのやり取りやコンテキストの不一致に煩わされることはありません。
複雑なクエリー言語を覚える必要も、異なるシステムのデータを手作業で相関付ける必要もありません。オーケストレーターエージェントが、既存のアクセス制御ルールに準拠しながら、安全なプロトコルを介してデータにアクセスし、ドメインをまたいで専門エージェント間の連携を図ります。あらかじめ用意されたAIアシスタントを使用する場合でも、オープンプロトコルを介して独自のエージェントを接続する場合でも、目標は同じです。それは、数週間かかる手動での調査を、AIの支援によって数分間で終わらせることです。
エージェント型AIの成否はここで決まります。信頼できるAIでなければ、自律的なインテリジェンスは、自律的に増殖するリスクとなってしまいます。
その信頼の基盤となるのが、データの取り込みからアーカイブや廃棄まで、データライフサイクル全体にわたる包括的なガバナンスです。どの段階でも、データの品質とセキュリティを最高レベルに保つ必要があります。自律型のエージェントがマシンスピードで動作することを考えれば、特に慎重に検討する必要があります。
まずは、ポリシーを策定して、人間やAIエージェントがプラットフォームでできる操作、具体的には、誰が何にアクセスできるか、何を共有できるか、データをどのように使用できるかなどを規定するルールを定めます。ポリシーを適用すれば、イノベーションに必要な俊敏性を維持しながら、不正使用を防止できます。
ただし、ガバナンスやポリシーを機能させるには、実際に何が起きているかを把握できなければなりません。データのオブザーバビリティは、エコシステム全体の「フライトレコーダー」として、データの鮮度、量の変化、スキーマのドリフト、詳細なリネージ(データがどこで生成され、どのように使用されてきたか)をリアルタイムで可視化します。このような透明性を確保すれば、ガバナンスを理論的な枠組から実践的な運用へと転換させることができます。
データをエンドツーエンドで可視化できれば、データを信頼することができます。エージェントがマシンスピードで自律的に動作するとなれば、この信頼は単に重要なだけでなく、AI運用の安全性、信頼性、拡張性を保証するための基本要件でもあります。

次のようなエージェントを想像してみてください。このエージェントは、サーバーラック内の温度が1度上がっただけでそれを検出し、温度変化のパターンと過去の障害モードとの相関関係を調査できます。そして、エージェントは、障害が発生する前にトラフィックを再ルーティングして過熱を未然に防ぎ、パケットが失われることを防ぎます。人間であれば、温度変化だけでなく、温度変化と障害との思いもよらない相関関係も見逃してしまうでしょう。
ここにこそ大きな期待があります。適切な投資を行って信頼できるAIを構築できれば、問題の迅速な検出と対応、将来の結果予測、プロセスの自動化による効率の向上を実現できます。
AIに対する信頼を築く鍵は、GPUレベルのコンポーネントから、LLM、エージェントまで、AI自体のオブザーバビリティとセキュリティを確保することです。これにより、自信と責任を持ってAIを展開できます。
私たちは今、転換点に立っています。エージェント時代に成功を勝ち取るのは、最も多くのデータを持っている組織ではなく、最も優れたデータ戦略を持っている組織です。
データ戦略の構築に今すぐ着手しましょう。そうしなければ、俊敏性の高いライバル企業が自律型インテリジェンスを活用して、あなたには見えない脅威を検出し、予測できない障害を防ぎ、追いつけないスピードでイノベーションを進めるさまを見せつけられながら、データの混乱によるコストを払い続けることになります。
問題は、エージェント型AIが組織の運用を変革できるかどうかではなく、組織にその変革の準備ができているかどうかです。
このブログはこちらの英語ブログの翻訳、前園 曙宏によるレビューです。