https://www.splunk.com
  • Splunkサイト
    • Splunk Answers
    • ブログ
    • Community
    • .conf
    • Developers
    • Documentation
    • Splunk.com
    • Splunkbase
    • サポート
    • トレーニング
    • User Groups
    • ビデオ
https://www.splunk.com
  • ブログ
  • カテゴリー
    カテゴリー
    • .conf & SplunkLive!
    • DevOps
    • 業種・業界
    • IT
    • 経営陣
    • Learn
    • パートナー
    • データプラットフォーム
    • セキュリティ
    • Splunk Life
    • Tips
    Category Spot Image
    電子書籍
    外形監視のベストプラクティス Synthetic Monitoringの紹介

    Webサイトのパフォーマンスが広告収入、ユーザーエンゲージメント、SEOランキングに与える影響、外形監視を使ったソリューションを紹介

    詳細はこちら
  • ライター
    ライター
    • Splunk
    • Guest
    • 江藤 愛
    • 大谷 和紀
    • 甲斐 逸郎
    • 加藤 教克
    • 塚本 政彦
    • 仲間 力
    • 野村 健
    • 村田 達宣
    • 矢崎 誠二
    • 山内 一洋
    • 山村 悟史
    • 横田 聡
    • Gary Steele
    • Spiros Xanthos
    • Garth Fort
    • Simon Davies
    • Ryan Kovar
    • Jane Wong
    • ライター一覧
    Author Spot Image
    電子書籍
    SIEM導入ガイド

    適切なSIEMソリューションがどのように役立つかを解説した最新版

    電子書籍を読む
  • メール配信
  • 無料トライアル
https://www.splunk.com 無料トライアル
ブログ
カテゴリー
  • .conf & SplunkLive!
  • DevOps
  • 業種・業界
  • IT
  • 経営陣
  • Learn
  • パートナー
  • データプラットフォーム
  • セキュリティ
  • Splunk Life
  • Tips
ライター
  • Splunk
  • Guest
  • 江藤 愛
  • 大谷 和紀
  • 甲斐 逸郎
  • 加藤 教克
  • 塚本 政彦
  • 仲間 力
  • 野村 健
  • 村田 達宣
  • 矢崎 誠二
  • 山内 一洋
  • 山村 悟史
  • 横田 聡
  • Gary Steele
  • Spiros Xanthos
  • Garth Fort
  • Simon Davies
  • Ryan Kovar
  • Jane Wong
  • ライター一覧
メール配信
Splunkサイト
  • Splunk Answers
  • ブログ
  • Community
  • .conf
  • Developers
  • Documentation
  • Splunk.com
  • Splunkbase
  • サポート
  • トレーニング
  • User Groups
  • ビデオ
DEVOPS

SLOのエラーバジェットを追跡するSignalFlowの活用

Share:

マイクロサービスやマクロサービスの運用と健全性に関する長期的な指標をどのように追跡していますか?サービスレベル指標(SLI)とサービスレベル目標(SLO)は、DevOpsチームとIT運用アナリストにとって非常に重要な(時には意欲的な)メトリクスです。このブログ記事では、SignalFlowを活用して複数のSLOのエラーバジェットをまとめて追跡する方法をご紹介します(Terraformを使って簡単に始めることもできます)。

SLOの目的は組織によってさまざまです。

  • アプリケーションチームが各種サービスの成功/失敗率を測定する。
  • 各チームが意欲的なサービス目標を設定する(「複数の期間にわたってSLOを上回ったら、信頼性を築いたとみなして新機能の開発に注力する」など)。
  • DevOpsチーム、運用チーム、経営幹部に共通のフレームワークを構築して、サービスの長期的な健全性を評価する。
  • ダウンタイムやエラーバジェットを測定し、各サービスについて一定期間のダウンタイム、つまり「エラー分数」を許容することで、チームが運用の健全性確保と新機能の開発の間でうまくバランスを取れるようにする。

Google社のSREハンドブックをお読みになったことがあれば、SLOとSLIについてはよくご存じだと思います。まだお読みでない方のために、その中の一節をご紹介します。

 

「SREの本来の責務は、単に「すべて」を自動化してアラートを待つことではありません。SLOに基づいて日常業務やプロジェクトを行うことであり、短期的にはSLOが守られるようにすること、中長期的にもSLOを維持できるようにすることです。SLOを重視しないならSREなど必要ないと言ってもよいでしょう」- Google社SREハンドブック第2章

 

SLx (SLO/SLI/SLA)は多くの場合、経時的なトレンドと結び付けて考えられます。SLxに関する議論では、「エラー分数」、「1カ月あたりのバジェット」、「四半期あたりの可用性」などの言葉がよく使われます。では、経時的なトレンドを示すグラフと、イベントを適時に通知するアラートを使ってSLOを追跡するにはどうすればよいのでしょうか。そこでSignalFlowの機能を活用できるというわけです。

アラート分数に基づくエラーバジェットの例図1-1.アラート分数に基づくエラーバジェットの例

 

SignalFlowを使ってみる…

ここでは「ダウンタイム分数」を基準にSLOを設定します。そのためには何が必要でしょうか?

  1. サービストラフィックの成功率が99%を下回ったときに、何らかの方法でそれを把握する必要がある
  2. 何らかの方法で1の状態を分単位で計測することでダウンタイム分数を割り出す必要がある 
  3. 割り出したダウンタイム分数を月/四半期単位で追跡して、ダウンタイム分数のバジェットと比較する必要がある

1番目は、「成功率」に関するアラートを使えばよさそうです。2番目は、アラートの状態が続いている間、1分単位でアラートを生成すればよいでしょう。3番目は、分単位のアラートを合計して定数(ダウンタイム分数のバジェット)と比較すれば解決です。 

幸いSignalFlowには、このような分単位のアラートを生成する機能や、特定の周期(週/月/四半期など)でアラート数を追跡する方法が用意されています。

 

アラートと計測

SignalFlowでは、alerts()関数を使ってアラートを時系列で追跡し、特定の期間に発生したアラート数をカウントできます。

そのために必要なものは以下の通りです。

  1. 1分で停止するアラート
    1. アラートの状態が長時間続く場合は、1分ごとにアラートをオン/オフにします。
    2. 特定の率(一般的にはエラー率)に基づいてアラートを生成します。
  2. アラートデータを変換し、そのデータに対しstats関数を使用できるグラフ作成メソッド
    1. この手法には週/月/四半期などの周期でカウントをリセットできる方法を含みます(詳細は後述)。

SignalFlowのアラート例:

filter_ = filter('sf_environment', '*') and filter('sf_service', 'adservice') and filter('sf_kind', 'SERVER', 'CONSUMER') and (not filter('sf_dimensionalized', '*')) and (not filter('sf_serviceMesh', '*'))
A = data('spans.count', filter=filter_ and filter('sf_error', 'false'), rollup='rate').sum().publish(label='Success', enable=False)
B = data('spans.count', filter=filter_, rollup='rate').sum().publish(label='All Traffic', enable=False)
C = combine(100*((A if A is not None else 0)/B)).publish(label='Success Rate %')
constant = const(30)
detect(when(C < 98, duration("40s")), off=when(constant < 100, duration("10s")), mode='split').publish('Success Ratio Detector')

 

このコードでは以下の操作を行っています。

  1. フィルターを定義します。APMデータを使用しているので、このフィルターでは主に、「adservice」という特定のサービスのみに対象を絞り込んでいます。
  2. 「成功率」(エラー率の逆)を割り出して、その数字を下回った場合にアラートを生成できるようにします。
    1. Aでは成功したリクエストのみを取得します。
    2. Bではすべてのリクエストを取得します。
    3. Cで成功率を割り出します。
  3. ダウンタイム分数(成功率のしきい値を下回る分数)のディテクターを作成します。
    1. 定数値(任意の値)を作成します。この値を使って、ディテクターがオンになってから10秒後にオフにします。
    2. 成功率(C)が40秒間95%を下回ったらディテクターをトリガーします。
      1. 「off=」設定と「mode=’split’」設定を使って、次の2つの条件が満たされたときにディテクターをリセットします。 
        1. ディテクターが現在トリガーされている
        2. 定数が10秒間100を下回った

要するにこのコードでは、メトリクスがアラートしきい値を超えている間、1分ごとにアラートが生成されるようにしています。

エラーバジェットを追跡するグラフと周期

次に、このアラート分数を追跡するためのグラフを作成します。さらに、グラフを1カ月ごとにリセットして、各月でエラーバジェットが使い果たされたかどうかがわかるようにします。

エラーバジェットのグラフ作成の例:

## Chart based on detector firing
AM = alerts(detector_name='THIS IS MY DETECTOR NAME').count().publish(label='AM', enable=False)
alert_stream = (AM).sum().publish(label="alert_stream")
downtime = alert_stream.sum(cycle='month', partial_values=True).fill().publish(label="Downtime Minutes")
## 99% uptime is roughly 438 minutes
budgeted_minutes = const(438)
Total = (budgeted_minutes - downtime).fill().publish(label="Available Budget")

このコードでは以下の操作を行っています。

  1. 先ほど作成したディテクターからのメトリクスストリームを定義します。
    1. そのアラートストリームを取得して合計します。これで、アラートが何分間続いたかがわかります。
  2. ダウンタイム分数のストリームを作成します。 
    1. 合計したアラートストリームを、「cycle=」で指定した周期(月、週など)ごとにさらに合計します。partial_valuesは念のため許可します。
    2. fill()を使って、データポイントが空だった場合は直前の値を補充します。
  3. エラーバジェット(ここでは「ダウンタイムバジェット」)の分数を示す定数を作成します。
  4. 利用可能な総バジェットを計算します。
    1. バジェットの定数値からダウンタイムのストリームを引き算します。
    2. fill()を使って、データポイントが空だった場合は直前の値を補充します。

 

アラート分数のグラフ作成の例図1-2.アラート分数のグラフ作成の例

 

SignalFlowの機能を組み合わせて、しっかり監視

SignalFlowがいかに便利なツールであるかおわかりいただけたでしょうか?その高度な機能を活用すれば、面白いことがたくさんできます。

ここに示した例のように、SignalFlowを使ってアラートとグラフを作成し、それらを組み合わせてSLO/SLxを新たな方法で可視化することもできるのです。詳しい例とSignalFlowの使い方については、GitHubのSignalFlowリポジトリをご覧ください。

SignalFlowが活用できたら、次のステップへ

Splunk Observabilityが秘める可能性はほぼ無限です!このブログ記事をSignalFlow活用の出発点として、Splunk Observabilityでもっと高度な機能の開発にチャレンジしてみてください。

Terraformを使って、Splunk ObservabilityでこのSLO/エラーバジェット追跡機能を簡単に実装したい場合は、GitHubのObservability-Content-Contribリポジトリをチェックしてください。現在、Splunk Observabilityで何かすごい機能の開発に取り組んでいる方は、作成したダッシュボードやディテクターをこのリポジトリで公開することをぜひご検討ください。

Splunk Observabilityをまだお使いでない場合は、Splunk Observability Cloud製品スイートの無料トライアルをぜひお試しください。


このブログ記事はSplunkのオブザーバビリティフィールドソリューションエンジニアであるJeremy Hicksが執筆しました。ご協力いただいた以下の同僚に感謝申し上げます(敬称略):Bill Grant、Joseph Ross

このブログはこちらの英語ブログの翻訳、山村 悟史によるレビューです。

November 15, 2022
Jeremy Hicks
Posted by

Jeremy Hicks

Jeremy Hicks is an observability evangelist and SRE veteran from multiple Fortune 500 E-commerce companies. His enthusiasm for monitoring, resiliency engineering, cloud, and DevOps practices provide a unique perspective on the observability landscape.

TAGS
DevOps
Show All Tags
Show Less Tags

Related Posts

SPLUNK ON TWITTER
  • @Splunk
  • @splunkanswers
  • @SplunkforGood
  • @SplunkDocs
  • @splunkdev
  • @splunkgov
SPLUNK ON FACEBOOK
  • @Facebook
SPLUNK ON INSTAGRAM
  • Follow us on Instagram
SPLUNK ON LINKEDIN
  • Follow us on LinkedIn
SPLUNK ON YOUTUBE
  • Subscribe to our Channel
SPLUNK ON SLIDESHARE
  • Follow us on SlideShare
Splunk製品
  • Splunk Cloud Platform
  • Splunk Enterprise
  • Splunk IT Service Intelligence
  • Splunk On-Call
  • Splunk Enterprise Security
  • Splunk SOAR
  • Splunk Infrastructure Monitoring
  • Splunk APM
ソリューション
  • オブザーバビリティ
  • セキュリティ
  • プラットフォーム
お客様事例
リソース
  • 電子書籍
  • アナリストレポート
  • ホワイトペーパー
  • ウェビナー
  • ビデオ
お問い合わせ
  • サポート
  • 営業へのお問い合わせ
Splunk Sites
  • Splunk Answers
  • 日本語ブログ
  • Community
  • .conf
  • Developers
  • Documentation
  • Splunkbase
  • SplunkLive!
  • T-shirt Store
  • トレーニング
  • User Groups
Splunk
Sitemap | Privacy
© 2005-2023 Splunk Inc. All rights reserved.
Splunk、Splunk>およびTurn Data Into Doingは、米国およびその他の国におけるSplunk Inc.の商標または登録商標です。他のすべてのブランド名、製品名、または商標は、それぞれの所有者に帰属します。