「ああ、なんてすばらしい眺めだ」
米国人として初めて地球周回軌道を飛行したジョン・グレンが宇宙から見た地球の姿に感嘆したとき、同じ景色を見たことのある人間はほかに1人しかいませんでした。私たちはその事実を当然のものとして受け止めています。それから数十年の間に、宇宙飛行は奇跡から、画期的な出来事、そして日常へと変わっていきました。かつては2人の人間にしか得られなかった視点が、今では何百万人もの人々に共有されています。数々のドキュメンタリー、SNSでの投稿、宇宙飛行士によるライブ配信を通じて、たった1つのブレークスルーが人々の可能性に対するイメージを根本的に変え得ることを実感できます。
SOCは今日、セキュリティ運用に新たな視点と手法を取り入れ始めています。アナリストは、深い直感力、パターン認識スキル、そして粘り強さを持ってあらゆるインシデントに対応します。しかし、分散したツールと手動によるトリアージによって構成されたプロセスに基づく運用モデルでは、世界トップクラスのアナリストであっても限界があります。次なる飛躍を実現するには、これまでとは違う取り組み方が求められます。業務の進め方、意思決定の方法、人間と機械による連携のあり方を、今日の重圧に対応できるように変えていく必要があります。
SOCへの重圧は高まり続けています。データが爆発的に増加し、ワークフローはますます複雑になり、攻撃はAIを悪用することでアナリストの対応能力を超える速さで進化しています。ツールやダッシュボード、アラートを増やしても、解決にならないどころか、現場の混乱を招きます。実際、ある調査によると、セキュリティチームのリーダーや現場担当者の50%以上が今後12カ月以内に離職する可能性があると回答しています。1
エージェンティックAIは、新しい運用モデルをもたらします。自律型のエージェントが、非構造化データであるテレメトリを精査し、すばやく正確に調査を行って、データ増大の問題に対処する一方で、人間は、その挙動の調整、監督、ガードレール設定の役割を担います。
テクノロジーだけで世界を変えることはできません。ブレークスルーを起こせるかどうかは、テクノロジーを利用する人間にかかっています。2026年のSOCは、人間とエージェントとのハイブリッドが前提となり、アナリストは戦略の立案、創造的な取り組み、重要な意思決定に集中できるようになるでしょう。その変化は、初期の宇宙飛行士が地球を外から眺めたときのような、これまでにない変革をもたらすはずです。
それでは今年の予測をご紹介します。
SOCの次の成熟段階では、AIを導入しているかどうかではなく、AIの能力を引き出す方法を知っているかが鍵を握ります。多くのチームは引き続き、アラートの要約、コンテキストの抽出、レポートの作成といった用途で、人間の指示を前提として「AIを利用」することになるでしょう。たしかに、それは役に立ちます。しかし結局は、機能の後付けに過ぎません。傑出したSOCの取り組み方は違います。エージェントをツールではなくチームメイトとして業務の中心に据え、AIが実際の業務を担えるようにプロセス、監視体制、ワークフローを設計しています。
この変化は、アナリストの価値を損なうのではなく、高めることになります。SOCで人間とエージェントの連携が進むにつれて、アナリストの仕事は、調査のすべてのステップを手作業で行うことではなく、自律的に実行されるワークフローを監督することになっていきます。つまり、エージェント同士の連携を調整し、エージェントがすべきこととすべきでないことの境界を設定して、システムがSOCのミッションに沿って動作するように導くことです。そして、AIシステム間の連携が拡大するとともに、アナリストはワークフローの設計、ポリシーの調整、エージェントの思考と連携の方向付けなど、アーキテクチャに関わる役割を多く担うようになります。
この新しい運用モデルの基礎になるのが信頼性です。チームの負担になっている反復的でリスクの低い作業をエージェントが担うことで、アナリストは、詐欺行為の特定、リスクの評価、戦略の策定など、判断力が求められるタスクに集中できます。ただし、その場合でもアナリストは、エージェントに任せるべき作業や介入すべき状況を判断し、エージェントによる自律的な処理が増える中で連携が維持されるように調整する必要があります。この人間参加型(HITL:Human-in-the-Loop)の監督が求められる点で、アナリストは「自律的な意思決定のスチュワード」と言えます。
こうした転換は、SOC内での「経験」の意味合いにも変化をもたらします。自動化によって実行層が平準化されると、従来の年功序列に基づく基準があいまいになっていきます。SplunkのフィールドCTOであるKirsty Paineは次のように説明します。「SOC内でレベル1の業務の自動化を進めるとともに、『レベル4』に割り当てる新たな責任範囲を定めることをお勧めします。エージェントやAIが担う業務を増やせば、人間は、自ら手を動かすのではなく、エージェントを管理して戦略的なプログラムを推進するという、より高度な任務に従事できるようになります」。エントリーレベルのアナリストがレベル2相当のワークフローに直接関わるようになると、ジュニアアナリストはベテランと同じくらい熟練しているように見えるかもしれません。これは、ジュニアアナリストが経験を積んだからではなく、AIによって全員の作業効率が向上した結果に過ぎません。「そこで問題となるのは、今後、AIの導入によって人間が多く担うようになる新しいタスクをどのように評価し、それを踏まえてキャリアアップをどうサポートしていくかです」とPaineは指摘します。「現在、検出ルールの作成を検出エンジニアに任せているのと同じように、エージェントの運用を担うAIエンジニアが必要になるのかもしれません」
SOCのリーダーにとって、これは実績の評価基準を見直す契機となります。今後、アナリストの成果は、量やスピードではなく、いかにエージェントを適切に監督し、自動化を調整し、長期的な効果をもたらす意思決定を導き出せるかによって判断されることになるでしょう。また、実績は、どれだけキーボードのキーを叩いたかではなく、監督としての能力をどれだけ発揮できたか、つまり、システムが人間の行動に即して学習するように舵を取ることができているかによって決まります。
チームの働き方が見直される点を考えれば、次のステップは明白です。それは、SOC自体のパフォーマンスの測定方法を見直すことです。
SOCでは、透明性や説明責任を担保し、進捗状況を把握するための指標として、MTTR (平均解決時間)を長年使用してきました。しかし、検出、調査、対応のサイクルにおける業務の多くを自律型のエージェントが担うようになると、時間ベースのメトリクスは意味を失い始めます。スピードはもはやパフォーマンス指標の一部でしかありません。エージェンティックシステムが中心となる時代には、マシンレベルで行われる意思決定の品質、コンテキスト、予防効果、ビジネス効果を評価するための新しい測定基準が求められます。
エージェントが、非構造化データであるテレメトリを分析し、高い忠実度で問題を検出して、レベル1の作業の大部分を自動化するようになると、MTTRは、パフォーマンス指標としてよりも、プロセスがどれだけ遅れていたかを示すスナップショットとしての意味合いが強くなります。エージェントが問題を未然に検出してインシデントを防ぐのであれば、MTTRなどの平均時間の指標で、いったい何を評価すればよいのでしょうか?この状況は、自動化の推進時と似ています。簡単に対応できるチケットがすべて自動で処理されるようになると、従来のメトリクスが向上するため、当初は処理時間が短縮されたように感じるでしょう。しかし、AIの導入が進むと、手作業や複雑で時間のかかる作業ばかりが残るため、KPIは再び悪化する可能性があります。今後、SOCリーダーは、誤検知の削減率、自律的なトリアージの精度、対応したリスクではなく回避できたリスクの件数などの成果ベースの指標や、回避されたダウンタイムの件数、侵害防止あたりのコストといったビジネスクリティカルなKPIとの整合性に目を向けるようになるでしょう。これらのメトリクスには、問題をすばやく解決するだけでなく継続的にインサイトを提供するという、エージェンティックシステムが実際にもたらすメリットが反映されます。
こうした新しい指標の誕生とともに、アナリストの役割も変化します。アナリストには、スピードを追求するよりも、エージェントの調整や推論の検証、自律的なアクションがそれぞれ組織のリスク許容度を反映しているかどうかの確認など、システムの動作を正しい方向に導くことが求められます。アナリストの評価では、タスク処理のスピードよりも、システムそのものを形作るうえで発揮される判断の質が重視されるようになるでしょう。この変化は、「良い状態」の長年の前提を問い直すものです。MTTRの短縮を良しとすることに慣れているチームには、パフォーマンスを評価するための新たな基準が必要になります。おそらくそれは、単なる対応時間ではなく、有効性、レジリエンス、先見性に根ざしたものになるでしょう。
この進化は、ビジネスリーダーとの連携の強化にもつながります。KPIに、損失の回避、運用リスクの軽減、レジリエンスの具体的な改善が反映されるようになると、セキュリティの取り組みを説明し、その妥当性を示すことがはるかに容易になります。
SOCがこれらの新しい指標を導入し始めると、運用体制にも大きな変化が訪れます。今後は、異なるツール、プラットフォーム、環境から得たインサイトを結び付けることができるAIシステムが必要になるでしょう。この変化は、次の予測、つまり、連携するマルチエージェントエコシステムの台頭に直接つながります。
セキュリティ領域におけるAIの第1波では、個々のツールに組み込まれた単独のアシスタントが注目されました。しかし、これらは役に立つものの、活用範囲は各ツール内に限定されていました。2026年には、単一目的のアシスタントへの需要は落ち着き、エージェントが連携して推論し、コンテキストを共有し、スタック全体を横断してアクションを実行する、調整されたエコシステムへと関心が移っていくでしょう。SOCは常にチームで動く組織ですが、今やAI側もその一部として、複数のエージェントが協調し、緊密に連携する形で機能し始めています。
今後のSOC業務では、SIEM、EDR、クラウドコンソールのそれぞれのアシスタントを切り替えて使うのではなく、異なるプラットフォームやワークフロー間をスムーズに移動できるエージェントネットワークを利用することになるでしょう。これらのエージェントは、オープンスタンダードを活用して、共通の言語で情報をやり取りできる接続基盤「ファブリック」を形成します。この基盤上では、MCP (Model Context Protocol)などのプロトコルを使って、エージェントがすべての環境を横断してコンテキストを収集するための一貫した方法を整備できます。マルチエージェントシステムのような、エージェントの連携を可能にする新たなフレームワークを取り入れれば、エージェント間でタスクを順序付け、インサイトを引き継ぎ、リスクについての共通認識を確立できます。これにより、ダッシュボードを1つずつ見て回るだけでなく、全体像を把握できるシステムを構築して、スピードだけでなく一貫性も向上させることができます。
ただし、この進化は環境の変化も招きます。古いシステムは、エージェントの共通言語に対応していない場合があります。レガシーツールには、インサイトの共有に必要な仕組みが備わっていないこともあるでしょう。そのため、移行期間中の環境では、システム間の連携が円滑に進まず、調整が必要になる場合があります。
この問題をうまく克服できるかどうかは、リーダーシップにかかっています。リーダーが、オープンスタンダードの導入、段階的なモダナイゼーション、綿密な統合ロードマップの作成などにより、早い段階から相互運用性の確保に取り組むSOCほど、成果を早期に実現できます。エージェントが狭いサイロ内で作業を行うのではなく、安全かつ予測可能な方法で、リスクを包括的に把握しながら業務を遂行できる環境を構築することが重要です。
このようなシステムの相互連携が実現すると、同じ連携基盤を活用して攻撃のシミュレーション、防御のテスト、人間とエージェントのトレーニングなど、さらに強力な機能を利用できるようになります。そして、それは次の変化、つまり、自律型のレッドチームエージェントによる継続的な敵対的シミュレーションの登場に直接つながります。

攻撃者は防御側が追いつくのを待ってはくれません。そして2026年には、そこにAIも加わります。昨年登場した、AIを悪用したマルウェアと自動化された攻撃チェーンは、攻撃者が、最小限の人的介入で、偵察、ペイロードの開発、ラテラルムーブメントをいかに迅速に拡大できるかを証明しました。しかし、それらの攻撃は、スピードが上がると同時に、一貫性も増していることが明らかになりました。つまり、攻撃に、研究、予測、再現が可能なパターンや動作、意思決定パスが含まれるということです。それは防御側に、攻撃者の予測可能性をトレーニングに活かす新たな機会を生み出します。「AIを悪用したマルウェアはより賢くなる可能性があります」と、SplunkのシニアセキュリティストラテジストであるRyan Fettermanは説明します。「しかし、検出もより容易になります。デバイス上でのスクリプト生成から、プロンプト駆動の制御まで、適応型の技法にはそれぞれ、防御側が検出して阻止できる新たなパターンが含まれます」
SOCは今後、自律型のレッドチームエージェントによる継続的な敵対的シミュレーションを取り入れるようになるでしょう。こうしたトレーニングを重ねれば、実際の攻撃が本番環境に及ぶよりもずっと前の段階で、防御策を探り、検出モデルをストレステストして、弱点を明らかにできるようになります。「AIのおかげで、攻撃者はほとんど人手をかけずに攻撃全体を自動化できるようになりました」とFettermanは説明します。「しかし、自律性は諸刃の剣です。自動化による繰り返し可能なパターンは、防御側に、攻撃をシミュレートしてエージェントを強化する機会をもたらします」。SOCチームは、脆弱性を知らせるアラートを待つのではなく、攻撃者が自動化している戦術を模倣したエージェント主導の攻撃シーケンスを実行して、自ら脆弱性をあぶり出すことができます。これにより、年に1回の演習ではなく、リアルで緊張感のある訓練によって、攻撃への備えを万全に整えることができます。
アナリストやSOCリーダーにとって、その効果は計り知れません。インシデントが起きてから学ぶのではなく、マシンスピードで展開される制御されたシミュレーションから学ぶことができるのです。エージェントは、AIを悪用した新たなマルウェアのパターンを再現し、「バイブハッキング」攻撃のロジックを模倣し、人間のレッドチームよりも高い攻撃力で防御を脅かす新しい亜種を生成できます。アナリストは随時このプロセスに関与し、結果を解釈しながら検出ロジックを改良して、次の攻撃やプローブの方法をエージェントに指示します。こうしてSOCは、継続的なリハーサルを通じて、人間とエージェントが日々互いにスキルを磨く場を構築できます。
この進化は、新たな課題も生み出します。敵対的エージェントで防御側のエージェントをテストするようになると、監督ループが複雑になり、誰が何をレビューすべきか、定義された境界をシミュレーションで超えないようにするにはどうすればよいか、といった疑問が生じ始めます。この点については、明確な監督プロセスを整備して、アナリストが交戦規則を定め、システムの動作を検証し、シミュレーションを特定のリスク状況に限定するようにすれば、この新しいトレーニングサイクルの価値を最大限に引き出すことができます。
継続的なシミュレーションでは、さらに重要なことがあります。それは透明性の確保です。アナリストとエージェントは、防御策が機能するかどうかだけでなく、なぜ機能するのかを理解し、どのように連携して適応すべきかを考える必要があります。このような、追跡可能性、推論、監査可能性に対する要求は、次の領域、つまり、自律的なアクションにおいて、人間が信頼できる監査証跡を常に残すことに直接つながります。

自律型のエージェントが担う調査や対応作業が増えると、スピードと同じくらい説明責任が重要になります。アナリストが他のチームメンバーのアクションを追跡するのと同様に、SOCは、エージェントが何を実行したかだけでなく、なぜ実行したかを知る必要が生じます。すべての判断、実行したすべてのステップ、参照したすべてのシグナルが記録され、説明可能かつレビュー可能でなければなりません。エージェントは単なる新しいツールではなく、独自の権限、責任、ガバナンス要件を持つ新しいデジタルアイデンティティです。Splunk脅威調査チームのプリンシパルソフトウェアエンジニアであるRod Sotoは、次のように説明します。「エージェントは事実上、新しいデジタルアイデンティティとして機能するため、定義された権限、監督、厳格な最小特権アクセスなど、ユーザーやアプリケーションと同様のガバナンスを適用する必要があります」
この変化は、運用の透明性が新たな段階を迎えたことを示しています。エージェントがトリアージを実行し、シグナルを相関付け、脅威を自動的に封じ込めるようになると、SOCリーダーには、推論の経路やポリシーへの適合性を明確に示す、より豊富で解像度の高い監査証跡が必要になります。アナリストは、こうした可視化された情報を使って、結論を検証し、アクションを遡って調査し、エージェントがコンテキストを誤解した場合には軌道修正します。また、インシデント対応において自律的な意思決定が果たす役割が拡大すると、コンプライアンスチームも、規制への準拠状況を把握するために、これらの情報を使用します。さらに、経営陣も、マシンスピードのワークフローが当たり前になってもSOCがブラックボックス化しないように、これらの情報を活用して信頼を構築します。
ただし、自律的に実行する作業が増えると、監督ループがより複雑になります。ワークフローによっては、エージェントが他のエージェントのログの確認、出力のチェック、エスカレーションの調整などを行って、エージェントを監督することもあるでしょう。そうなると、階層や監督体制をどのように整備し、人間によるレビューを常に維持する範囲をどのように設定すべきかといった、新たな論点が生じます。「エージェントが他のエージェントを監督し始めると、監督ループが人の手の届かないところにまで拡大する可能性があります。それを防ぐには、明確なポリシーを設定し、人間によるレビューのポイントを定義して、システムに厳格に適用することが重要です」とSotoは助言します。SOCは、こうした境界を明確な意図を持って設計し、エージェントが多くの作業を担うようになっても人間がミッションを制御し続けられるようにする必要があります。
この取り組みを適切に実施すれば、SOCは、自律性と監査可能性が相互に強化し合う、まったく新しい環境を生み出すことができます。アナリストは、意思決定がどのように行われたかを明確に把握し、経営陣は、自信を持って自動化の範囲を拡大し、コンプライアンスチームは、信頼の構築に必要な透明性を確保できます。そして組織全体で、エージェントが人間に取って代わるのではなく人間の判断を強化するモデルへと移行できます。
宇宙飛行が私たちの世界観を変えたように、エージェンティックAIはSOCに対する私たちの理解を変え、真のセキュリティとイノベーションの促進の意味を再定義しています。新たなブレークスルーを起こせるかどうかは、テクノロジーだけでなく、私たちがテクノロジーをどのように利用するかにかかっています。どのようにアナリストがエージェントを導き、リーダーが境界を設定し、チームが自分たちと共に思考するシステムへの信頼を構築するかが成功の鍵を握ります。
セキュリティ運用の次の時代の主役は、あらゆるミッションにコンテキスト、判断、創造性をもたらす人間です。エージェントを信頼できるパートナーにできれば、SOCの視野が広がります。そしてそれは、すばらしい眺めになるでしょう。
[1] https://www.iansresearch.com/resources/ians-cybersecurity-staff-compensation-report
このブログはこちらの英語ブログの翻訳、前園 曙宏によるレビューです。