サイバーセキュリティは専門性が高く、汎用のLLM (大規模言語モデル)では対応できません。セキュリティリーダーは、脅威が増大し、規制が強化される中で、組織への信頼を維持しなければならないという重圧に直面しており、そのため自組織の課題解決に適したソリューションを必要としています。
汎用モデルはその性質上、効率性が低く専門性が不十分です。その不足を埋めるために、セキュリティニーズに合わせて調整された、タスク固有の特化型モデルが注目され始めています。このブログ記事では、サイバーセキュリティにおけるAIの将来を担うのが、汎用の万能型LLMから、セキュリティタスク向けに調整された専門性の高い特化型モデルに移りつつある理由をご紹介します。
LLMは、質の高い情報検索、画像生成、ソフトウェアエンジニアリングなど、さまざまな領域で優れた能力を発揮します。しかし、専門性の高い一部のセキュリティタスクで利用するには効率性が不十分です。サイバーセキュリティの領域では、明確で高精度の結果が必要となり、そこでは正確性と信頼性が何よりも重要です。
重要なセキュリティタスクでは、現実的に以下のレベルが求められます。
しかし、今日のLLMの精度は約80%です。汎用モデルは、個々の領域で素晴らしい機能を発揮します。しかし、LLMを大規模に利用する場合は、特定のセキュリティタスクを担うには不十分となります。
それというのも、汎用モデルは今のところまだ、セキュリティのスペシャリストではないからです。セキュリティタスクでは多くの場合、そうしたモデルが備える汎用的な知識や機能は過剰となります。汎用モデルの計算能力がセキュリティ運用とは無関係な多数のタスクに分散しすぎると、防御が著しく薄くなり、無数の脆弱性にさらされることになります。セキュリティチームにとってそれは、コストは高くなるのに、必要な成果は減るということです。2キロメートル近くの広い網を仕掛けても、無数のインシデントや重大な脅威が容易にそこをすり抜け、セキュリティチームは検出、分析、対応に苦心することになります。
侵害されたネットワークの切り離し、インシデントのエスカレーション、防御策の発動は、ほぼ完璧な精度で実行する必要があります。しかし、汎用モデルは多くの場合、データの語彙や要素を誤って解釈したり、特定の脅威ファミリーの理解が不足していたりして、セキュリティギャップにつながります。
実際、1件の誤検知の解釈しだいで、侵害を数分で無効化できるか、数時間のダウンタイムによって損害が生じるかが分かれることもあります。どれくらいの金額でしょうか?Splunkの調査レポート『ダウンタイムの隠れたコスト』での回答に基づきOxford Economics社が算出したところによると、フォーブスグローバル2000企業のダウンタイムコストは年間4,000億ドルにも達します。
これは1社あたりで年間2億ドル、利益の約9%に相当します。ダウンタイムの1分あたりで平均9,000ドル、1時間あたりで54万ドルというコストです。

今日の規制やガバナンスでは、努力だけでなく実証可能な有効性が求められています。中途半端な対策では、すぐさま精査の対象になります。
CISOやCTOは、導入、コンプライアンス、コストの面で設計レベルのミスマッチに直面しています。サイバーセキュリティ業務に汎用モデルを導入すると、いくつかの課題が生じるのです。まず、ログ、バイナリ、インシデントレポートといった機密性の高いセキュリティデータを外部プロバイダーに送信して処理することには、プライバシーやコンプライアンス上の懸念があります。多くの組織、特に規制の厳しい業界の組織では、GDPRやHIPAAなどの法規制に準拠するために、セキュリティデータを内部ネットワーク内に留める必要があります。
セキュリティ向けのドメイン特化型AIは、広範なパターン認識にとどまらず、汎用モデルでは見落としがちな高度な脅威に対して、コンテキストを認識した正確な保護を提供します。その点で、他のAIとは一線を画します
特化型AIモデルは、行動のアノマリ検出に優れています。導入先のネットワーク環境に固有のベースラインを学習することで、正規の管理者によるアクションと攻撃者による巧妙なラテラルムーブメントを区別できます。この能力は、インシデント対応の自動化でも同じくらい重要で、侵害されたシステムを自律的に切り離したり、悪質な認証情報を数秒でブロックしたりするために役立ちます。汎用モデルでは、必要なドメイン制約が欠如しているため、こうしたタスクの実行には安全面で不安があります。ドメイン特化型AIは、脆弱性の予測的な管理にも優れています。一般的な重大度スコアだけではなく、実際の脅威インテリジェンスも考慮して、悪用可能な脆弱性の優先順位を判断します。また、業界固有のコンプライアンスや規制基準をアーキテクチャに直接組み込むことで、金融やヘルスケアといった規制の厳しい業界でも、自動化された防御策が法的なガードレール内に収まるように調整して、自律的なガバナンスを実現できます。
汎用LLMを自組織でホスティングすることも、あまり現実的ではありません。こうしたモデルは計算負荷が極めて高く膨大な処理能力を必要とするため、運用コストが法外に高くなります。遅延の点で、リアルタイムのセキュリティ運用に求められる基準も大きなボトルネックとなります。SOC (セキュリティオペレーションセンター)ではインシデントを数秒以内に検出して修復する必要がありますが、汎用LLMの最適化ではそのスピード要件を満たせないのです。
セキュリティタスクに特化してカスタマイズされたAIシステムには、汎用LLMを凌駕する数多くのメリットがあります。
ドメイン特化型セキュリティモデルは予測の精度が高い:タスク特化型モデルの大きなメリットの1つは、行動をより正確に予測できることです。幅広いドメインに対応しなければならない汎用モデルとは異なり、特化型モデルは、ログ、テレメトリ、脅威インテリジェンスなど、セキュリティ固有のデータでトレーニングできます。これにより、期待される行動の焦点を絞り、分散を抑えることができます。これは特に、ログのトリアージ、アラートの重複排除、行動のアノマリ検出で重要です。結果として、セキュリティチームは、誤検知の追跡に費やす時間を減らし、プロアクティブなリスク軽減に時間をかけることができます。
一方、汎用モデルでは、誤検知アラートの追跡、大量アラートのトリアージ、不明瞭なインシデントの調査、しきい値の場当たり的な再設定に労力を費やすことになります。
実際、Splunkの『2025年のオブザーバビリティの現状』の調査では、43%の回答者がアラート対応に「必要以上に多くの時間を費やしている」と認めています。とはいえ、アラートを無視するわけにもいきません。73%が、アラートを無視または抑制したために障害に発展したことがあると回答しています。問題は、生産性サイクルの浪費だけではありません。調査では52%が、誤検知アラートの量がチームの意欲の低下を招いているとも回答しています。

決定論的なパイプラインによってサイバーセキュリティ管理が強化できる:意思決定やアクションに関するルールやパターンが事前に定義されていれば、セキュリティのコンテキストに沿ってそれらを実行することが極めて容易になります。セキュリティ戦略、パイプライン、システムがシンプルであるほど、実際の脅威に直面したときに期待どおりに動作するモデルの構築、テスト、監視が簡単になります。いわば、臨時教諭が受け持つ幼稚園のクラスを管理するのではなく、専門知識のある実習生を管理するようなものです。
AIドリブンのセキュリティシステムの制御可能性を維持できる:セキュリティチームは、外部で発生する未知の脅威への対応で手いっぱいです。内部で発生する未知の脅威への対応を求められてはいけません。そのため、セキュリティ環境の運用では、AIシステムの動作が予測可能かつ制御可能であることが重要です。タスク特化型の小規模なモデルを使用すれば、AIシステムは、事実を歪曲したり無関係な領域に逸脱したりすることなく、期待どおりに動作します。こうした予測可能性は、人の介入が限られていてAIによる自動化の信頼性が重要となる、リスクの高い意思決定が行われる環境では不可欠です。また、タスク特化型モデルは、ガバナンスの向上、認証取得、テストの強化にも役立ちます。
特定のセキュリティ機能に焦点を絞ったモデルでは、障害がモデルで発生した場合のフォールバックパスや緩和戦略の開発がはるかに容易になります
プライバシー、コンプライアンス、導入に関する懸念を解消できる:特化型モデルは、セキュリティチームに固有のプライバシー、コンプライアンス、導入ニーズへの対応の点でも優れています。オンプレミス環境や隔離環境に導入して、機密データを組織の管理下で維持できます。これにより、データをローカルまたは信頼できる環境内で処理する必要があるというSOCの運用実態に適合します。
ローカルな導入では、組織や業界固有の規制要件に沿ってモデルをカスタマイズできるため、コンプライアンス対応も容易になります。トレーニングデータの透明性やモデルの説明可能性など、モデル特有のガバナンスも、特化型モデルならば簡単に管理できます。
コストが低く遅延が小さい:タスク特化型の小規模なモデルでは、コスト効率が高いことも大きなメリットの1つです。汎用モデルと比べてサイズが小さく範囲が狭いため、推論コストも大幅に低くなります。特化型モデルでは集中的な処理が実行されるため、クラウドでもオンプレミスでも必要なキャパシティが少なくて済み、結果としてインフラコストも相応に抑えられます。モデルの運用効率の向上はエネルギー消費量の削減に直結するため、地球環境と収益の両方に大きく貢献します。こうした生産性の高さは、膨大なセキュリティデータが日々生成される大規模企業にとっては特に魅力的です。特化型モデルは、低遅延で動作するように最適化できるため、セキュリティタスクのリアルタイム実行も可能です。これは、高速で動作するサイバー脅威を阻止するために不可欠な能力です。こうしたコスト低減と効率向上があいまって、ROIの向上につながります。
特化型のセキュリティモデルは、設計当初からセキュリティを最優先に考えています。脅威の分析、ログの解釈、インシデント対応など、複雑なセキュリティ運用に対応できるように作られています。そのアーキテクチャは多層防御と最小権限の原則を踏まえており、セキュリティが後付けではなく中心に据えられているのです。
セキュリティ特化型AIが実際にどのように使われているかを見ていきましょう。代表的な例は、テレメトリが豊富な環境向けに設計されたオープンソースのセキュリティ特化型AI、Cisco Foundationセキュリティモデルです。このモデルはオンプレミス環境での使用を想定して最適化されており、セキュリティチームは、プライバシーやコンプライアンスを犠牲にすることなく機能を活用できます。初期テストでは、セキュリティアーティファクトの分類や推論などのタスクにおいて汎用LLMよりも優れた性能を発揮しています。
もう1つの例が、注目が高まりつつある、インシデント対応に特化した社内運用型のSLM (小規模言語モデル)です
SLMは、SOCアナリストが脅威をすばやく特定して修復できるように設計されています。セキュリティ固有のタスクに重点が置かれ、ワークフローの効率化や、インシデント解決のスピードと精度の向上に役立ちます。また、リソースを大量に消費するフロンティアモデルに代わる、プライバシー重視の代替手段としても価値があります。これらのコンパクトなモデルを組織のプライベートクラウドやオンプレミスインフラに導入することで、内部システムのログ、インシデントチケット、独自のプレイブックなど、機密性の高いテレメトリをAIに直接入力できます。外部プロバイダーへのデータ漏えいのリスクを冒すこともありません。
小規模な特化型モデルは、多くの場合、過去のインシデントデータや特定の規制文書に基づいてファインチューニングされているため、コンテキストを認識した精度の高い回復手順を汎用モデルよりもスピーディーに実行し、無駄なアクションも大幅に削減できます。さらに、SLMは軽量で、汎用のハードウェアでも実行できるため、低遅延のトリアージをリアルタイムで実行して、コスト効率を向上させるとともに、厳しい規制にも準拠できます。
セキュリティリーダー(CISO、CTO、CIO)は、小規模なタスク特化型モデルが広く普及する将来に備える必要があります。これらのモデルは今後、SOCのワークフローに組み込まれ、セキュリティと運用の両方を効率化する、特化型で費用対効果の高いソリューションを実現することになるでしょう。セキュリティ業界は、広く薄い機能を持つ万能型モデルに頼るのではなく、1つのジョブを適切に実行する、小規模で高速な特化型モデルへと移行していくはずです。「必要十分」では十分と言えない業界において、特化型AIは、進化する脅威に先手を打つための鍵となります。