製品・アドオン
PagerDutyの優位性
おすすめコンテンツ
PagerDuty Advance
PagerDuty Advance
重要なデジタルオペレーション業務における生成AI機能

インターネットがまばたいた日:10月20日の大規模障害を乗り越えたPagerDutyの強靭性

2025.10.31更新

    2025年10月20日、AWSのUS-EAST-1リージョンで発生した大規模障害は、インターネット全体に波及し、広く利用されているSaaS、メッセージング、会議システム、クラウドインフラプロバイダーに影響を与えました。この出来事は、クラウドがいかに堅牢であっても障害と無縁ではないこと、そしてインターネットの中核が揺らぐとき、その影響がどこまでも波及することを改めて思い知らせてくれました。インシデントは「起きるかどうか」ではなく「いつ起きるか」の問題です。組織の規模や投資額に関わらず、どんな組織も無傷ではいられません。

    PagerDutyは、運用の可視性を守る最後の砦という特別な立場にあります。システムが故障したとき、私たちのプラットフォームは、チームが何が問題なのか、どう対処すべきかを確実に把握できるようにします。今回のインシデントでは、私たちのコアとなるインシデント通知機能は正常に動作し続け、インフラとエンジニアリングチームは下流への影響を最小限に抑えるため、迅速で的確な行動を取りました。

    何が起きたのか

    東部時間午前3時直前、PagerDutyは通知の失敗率の上昇を検知しました。当初は内部の認証関連の問題と推測されましたが、すぐにその可能性は排除されました。状況が展開するにつれ、これが上流プロバイダーで発生した大規模なイベントであることが明らかになりました。私たちの内部「インターネット気象」ダッシュボードは、複数のアカウントで通知トラフィックが通常と異なる急増を示しており、広範囲に影響が及んでいることを示唆していました。これは、ステータスページに表示される前に重大なインターネット障害が発生していることを特定する、信頼性の高いシグナルとなっていますが、根本原因までは教えてくれません。

    インシデントが進行するにつれて、イベント、インシデント、通知の発生率が増加しているのを観測しました。通常、北米の大部分では夜間は低トラフィック期間となるため、イベントとインシデントのトラフィックは安定したベースラインを保ちます。しかし、下のグラフが示すように、インシデントの開始直後にトラフィックは通常の少なくとも3倍に跳ね上がりました。私たちの側では、東部時間午前2時52分に最初の兆候が現れました。このような増加は、広範囲にわたる問題が発生していない限り、極めて異常です。以下は、インシデント初期段階のトラフィックレベルと前週同時期との比較です。

    メッセージングや会議プラットフォームを含む複数のサードパーティサービスが、パフォーマンスの低下や完全な停止を報告し始めました。この問題の中心がAWS US-EAST-1であることが明白になりました。

    私たちのインシデントパス通知(音声、SMS、モバイルプッシュ)、つまりリアルタイムの運用対応のライフラインは安定を保ちました。しかし、インシデントの外部影響に対応してルートを調整する介入が必要でした。

    最も重大な影響は、そのリージョンでホストされている数個のPagerDutyの非中核サービスに集中しました。特に

    • Workflow Automation(2022年に買収した旧Catalytic)でUIと実行の失敗が発生
    • Advance Scribe Agentが会議通話に参加できない状態に

    数字で見る影響

    最も影響が大きかった12時間の間、私たちのプラットフォームではこのような数字が出ていました。

    • PagerDutyに流入したイベント数:135,290,000
    • 作成されたインシデント数:2,314,163
    • 送信された通知数:3,430,000

    私たちの重複排除機能とEvent Intelligenceによるノイズ削減機能は、オンコールチームが際限ないアラートの嵐に襲われることを防ぐという点で、その真価を発揮しました。

    最前線から見えたこと

    私たちの特別な立場から、リージョン全体のクラウド障害時のインターネットの脆弱性を浮き彫りにする、インフラとコミュニケーションレイヤーの動作の急激な変化を観察しました。

    プロバイダーのレイテンシと障害の急増
    米国とインドで音声とSMSのレイテンシとリトライが急増し、キャリアルートが劣化しました。最悪の経路を避けるため、地域ごとにプロバイダー間でトラフィックの重み付けを調整しました。

    チャットと会議の遅延
    チャット通知でリトライと順序の乱れた配信が発生しました。上流プロバイダーの障害により、会議システムとの統合が初期化に失敗しました。

    オブザーバビリティの劣化
    クラウドでホストされているテレメトリツールがAWSの問題の影響を受け、メトリクスとイベントの可視性が制限されました。状況認識を維持するため、内部(セルフホスト)のダッシュボードに依存しました。

    顧客全体への広範な影響
    このインシデントの開始時、すべての主要な製品側面で急激な増加が見られました。

    私たちの対応

    インシデント対応プレイブックが迅速に発動されました

    内部インシデント管理プロセス

    インシデントが展開するにつれて、Slackで迅速に調整を行い、状況が悪化した場合に備えて代替コミュニケーションチャネルも準備しました。私たちのインシデントコマンダーは、私たちが頼っているサービス自体が問題を抱えている可能性があるこのような瞬間のために特別に設計された、バックアップコミュニケーション手順の訓練を受けています。興味深いことに、SREエージェントは、過去6か月間でまれにしか観察されなかった新しい異常なパターンを最初に警告したシステムの一つでした。これにより、「インターネット気象」ダッシュボードで相関付けていたデータが確認されました。

    定期的なステータスページの更新

    製品のパフォーマンスに関する最新情報を顧客に提供し、適切に対応できるよう、ステータスページに定期的な更新を投稿しました。その際、サードパーティへの言及や責任転嫁を避けることを心がけています。使用するサードパーティとそれらへの依存度は私たちが決定しており、これらが劣化したときの顧客への製品体験への影響は私たちが責任を負うものです。

    変更凍結の実施

    一部のサードパーティ監視およびメトリクスプラットフォームを含む主要なオブザーバビリティベンダーが劣化したため、リスクを軽減するためデプロイパイプラインを即座に凍結しました。可視性が低下すると、小さな変更でも不確実性を増大させる可能性があります。目標はシンプルでした。テレメトリを再び完全に信頼できるようになるまで、安定性を維持することです。

    通知ルートの重み付け変更

    私たちの通知システムは、複数のプロバイダーを使用し、それらを横断して配信をリトライするように構成されています。これらは、配信先地域ごとに冗長性と配信可能性を最適化しています。このインシデント中、特に米国とインドで障害のあるプロバイダーから動的にトラフィックを再ルーティングし、通知配信を安定させました。

    インシデントパスの安定性維持

    イベント取り込み、インシデント作成、エスカレーション、オンコール通知が動作し続けるよう、コアアラートの安定性を優先しました。

    わたしたちの強みと、力を入れている領域

    うまく機能したこと

    • この規模のインシデントに対処した経験と事前の投資により、下流の劣化にもかかわらず増加した負荷を処理するために必要な容量と冗長性が確保されていました
    • 国レベルのルーティングプレイブックにより、迅速な緩和が可能でした
    • インシデントパスとステークホルダー通知の明確な分離により、対応の焦点を絞ることができました
    • マルチソースのオブザーバビリティにより、ツールが劣化しても意思決定を継続できました

    改善に取り組んでいること

    • 地域依存の削減:Workflow AutomationのUS-EAST-1への集中により、フェイルオーバーオプションが制限されました
    • レジリエントなオブザーバビリティ:ブラインドスポットを最小限に抑えるため、フォールバックダッシュボードとテレメトリパイプラインへの投資を継続しています
    • その他:内部インシデントレビューが進行中で、同様のインシデントが発生した場合により強靭になるための追加投資を特定します

    業界への教訓

    このインシデントは重要な真実を浮き彫りにします。インターネットは共有依存関係であり、プロバイダー、リージョン、サービスのいずれも孤立して動作していません。US-EAST-1のようなコアリージョンがつまずくと、波及効果はデジタルスタックのあらゆる層に広がります。監視、メッセージング、コンピュート、そしてその先まで。

    最も重要なのは、障害を避けることではなく、迅速かつ効果的に対応することです。PagerDutyでは、より広範なエコシステムが不安定な場合でも、最も重要なワークフローを保護するようにレジリエンス戦略を設計しています。

    しかし、ここにはアカウンタビリティについてのより深い教訓があります。

    エンジニアリングリーダーとして、私たちは皆、意図的にアーキテクチャと依存関係の決定を下します。これらの決定には所有権が伴います。上流の依存関係が失敗したとき、正しい質問は「誰が失敗したか?」ではなく、「どのように設計したか?」そして同様に重要なのは「次回は何を変えるか?」です。

    オブザーバビリティとレスポンスの分離

    障害は信頼の連鎖全体をテストします。クラウドでホストされたオブザーバビリティツールが劣化したとき、私たちは別のリージョンのセルフホストテレメトリに依存し、可視性が回復するまでデプロイメント/システム変更を凍結しました。

    これは、観測に使用するシステムは運用に使用するシステムに決して依存すべきではないという原則を強化しました。私たちはこれを“church-and-state” モデルと呼んでいます — ダッシュボードが暗くなっても、対応者が自信を持って行動できるよう、オブザーバビリティインシデント対応の間に明確な独立性を維持することです。

    速度ではなく価値観でリード

    テクノロジーは障害を起こす可能性がありますが、リーダーシップは故障してはいけません。このイベント中の私たちのアプローチは、10年以上にわたって私たちが構築し、リードする方法を定義してきた同じ原則を反映していました

    • Ack + Own(認めて所有する):私たちは意図的に設計と依存関係の決定を下し、物事が壊れたとき、焦点は非難ではなく学習にあります。所有権とは、私たちの選択が結果をどのように形作ったかを理解し、そこから改善することを意味します
    • 不完全でも早期にコミュニケーション:透明性は確実性よりも早く信頼を構築します
    • プッシュする前に一時停止:オブザーバビリティが劣化したときのデプロイ凍結は躊躇ではなく、規律でした
    • ヒーローではなくシステムを構築:レジリエンスはアドレナリンではなく、準備と文化の産物です
    • 関わる人間への思いやりを示す:障害は誰にとってもストレスフルです。他者がつまずいたときに批判したくなりますが、相互接続されたシステムは、共感と謙虚さが信頼性の一部であることを思い出させてくれます。#hugops

    PagerDutyを14日間無料で試してみる

    700以上ものツールと連携。システム障害を自動的に検出・診断するだけでなく、適切な障害対応メンバーをアサインし、デジタル業務全体の修復ワークフローを自動化します。

    PagerDutyイメージ

    この記事が気になったら

    • Facebook
    • LinkedIn
    • twitter
    • はてなブックマーク

    PageDuty公式アカウントをフォロー

    • Facebook
    • LinkedIn
    • twitter

    関連ブログ記事関連ブログ記事

    検索検索
    タグタグ
    インシデントをより早く・少ないリソースで解決
    閉じる