コンテンツにスキップ
AI を象徴する、テクノロジー パターンを備えた脳のような形をした熱気球のバスケットに乗っている人のイラスト。その人は望遠鏡を覗いています。風船の周囲には、棒グラフ、南京錠、監視カメラ、雲の上の上向き矢印などのアイコンがオレンジ色の背景に配置されています。

イラスト:セキュリティ管理。 画像

カジノサイト

警備員から保護者へ: AI とロボット工学の時代における警備業務の再考

人工知能 (AI)、機械学習 (ML)、ロボット工学がセキュリティ作業のやり方を変えるにつれて、人々、資産、インフラストラクチャを保護することの意味も再定義されています。反復的なタスク、高リスクのタスク、またはデータが飽和したタスクはマシンに引き継がれています。人間は、意思決定、倫理的判断、戦略的ビジョンを必要とする役割に再配置されています。

この進化するテクノロジー環境において、セキュリティ リーダーは重要な質問をしています。人間の要素を置き換えるのでしょうか、それとも高めるのでしょうか?

実のところ、私たちはどちらも完全には行っていません。むしろ、セキュリティ業界は機能革命、つまり人間とインテリジェントなマシンが融合して新しい種類のセキュリティ部隊を形成する革命に突入しつつあります。目標は人間の関与を排除することではなく、インテリジェント システムと連携して人間の関与を再定義することです。関係する人間は、セキュリティ チームを支援するテクノロジーと AI システムの守護者となります。

AI とロボット工学が理にかなっているところ

セキュリティにおける AI とロボティクスの最も直接的かつ具体的な応用は、スピード、耐久性、精度、そして細部への絶え間ない配慮が要求される分野です。 AI テクノロジーが以下を支援するようになりました:

  • リアルタイム ビデオの異常の報告などの監視分析

  • ロボットパトロールユニットや自律型ドローンなどの境界防御

  • 生体認証および顔認識システムを含むアクセス制御

  • サイバー領域と物理領域の両方での異常検出などの脅威検出

これらのシステムは、24 時間 365 日の運用の一貫性、長期的なコストの削減、インシデントへの迅速な対応など、大きな利点をもたらします。おそらく最も重要なことは、ロボット工学により、自動化の古典的な「3D」に分類される、汚い、危険、退屈なタスクを人間が実行する必要性が軽減されることです。異常気象の中で境界をパトロールする場合でも、ビデオ監視映像を何時間も監視する場合でも、警報が鳴った後に潜在的に危険な環境に入る場合でも、機械はリスクと繰り返しを吸収するのに適しています。

タスクの自動化は、セキュリティ プログラムが AI 効率を高めるために採用した最初の目標でした。  AI が成熟するにつれて、セキュリティの最大の向上は、大量の運用データを消化して解釈する AI の能力にあることがわかります。セキュリティ システムは、監視カメラ、バッジ リーダー、ビル システム、デジタル ネットワークからの継続的な情報ストリームを生成します。マシン プラットフォームはこの情報を取り込み、セキュリティ担当者が手動で実行するのが不可能なクロスシステム分析を活用できるようにする一貫した全体像を構築できます。

AI 主導のシステムから生み出される最も革新的な機能の 1 つは、精度とニュアンスが向上して異常を検出する能力です。古い分析プラットフォームと同様に、新しい AI プラットフォームはデータを取り込みますが、最新のシステムでは数値を処理する能力がさらに強化されています。複数のデータ ソースを構造化して、時間、場所、システムなどを関連付けることもできるようになりました。次に、時間の経過とともに進化する適応モデルを適用します。これにより、静的なルールベースのシステムでは見逃してしまうマイクロパターンやコンテキスト認識型の異常を識別できるようになります。 AI は、単一の異常なアクセス イベントにフラグを立てるだけでなく、一見無害に見える一連の動作が疑わしいパターンを形成するときを認識できます。

現実の世界ではどのように見えるでしょうか? 製造環境では、交代制のセキュリティ オペレーション センター (SOC) 担当者が、ドア アクセスの不具合や HVAC の問題の増加に関する個別の苦情に対応する場合があります。これらは、手順に従って正しく記録および報告されているとしても、各シフトとは無関係に見えるかもしれません。しかし、AI には、両方の異常を施設センサーの湿度の急上昇とさらに関連付け、複数のシステムに干渉しているセンサーの故障を特定して、より広範なインフラストラクチャ障害に波及する前にメンテナンスのリスクにフラグを立てることができます。

人には感知するのが難しいニュアンスのもう 1 つの例として、AI 監視ツールは、倉庫内のさまざまな荷積みドックの近くを徘徊している個人に気づくかもしれません (たとえば、金曜日の午後はいつも、いつも違う制服を着ているなど)。完全な傾向を目撃できる巡回警察官は一人もいませんが、AI は空間的な繰り返しをソーシャル エンジニアリングの偵察の潜在的な指標として認識します。どちらのシナリオでも、パターンは特定の瞬間やレポートに存在するわけではありません。それはデータの中に存在しており、それらの点を結び付けるように設計されたシステムだけがそれを明らかにすることができます。

本当の力は、ベースラインを継続的に改良し、運用環境の変化に応じて「正常」の感覚を更新する AI の能力にあり、これにより、動的で自己学習する脅威認識層を提供します。

これらの洞察により、検出が向上するだけでなく、人間のチームがより早期かつ明確に行動できるようになり、セキュリティ プログラムを事後対応的な姿勢から事前対応的な戦略に移行することができます。適切に統合されると、AI は最も重要な信号を明らかにするためにバックグラウンドで働くサイレント アナリストになります。

知覚セキュリティの仕事: 人間が守らなければならない役割

ロボット工学や AI システムが日々賢くなり、より良くなっていることに異論を唱える人はいないでしょうが、最先端の AI でも共感、倫理、経験に基づく判断の能力が欠けています。機械は疑わしいと思われる行動にフラグを立てることができますが、その行動の背後にある意図を解釈したり、脅威の文化的、感情的、倫理的な側面を理解できるのは人間だけです。

企業がセキュリティ運用にさらに多くの AI を統合するにつれて、人間の役割を単に受動的な観察者としてではなく、通訳と戦略家という 2 つの補完的な機能として再定義する必要があります。

通訳は、機械が生成した洞察にコンテキストを提供する人間です。この役割には、データ ポイントを運用上の関連性に変換し、何かが異常であることだけでなく、それが特定のビジネス環境においてなぜ重要なのかを理解することが含まれます。通訳者は、この信号は脅威なのか、無害な逸脱なのか、それとも何かより大きなものを示すパターンなのか、と尋ねます。彼らの決定は、アルゴリズムの結果だけでなく、人々、政治、手続きに関する現実世界の知識によっても決定されます。

戦略家は、AI が生成した洞察を活用して、将来を見据えたセキュリティ体制と対応を形成します。これには、シナリオの計画、緩和努力の優先順位付け、部門間の行動の調整が含まれます。ストラテジストは、セキュリティに関する決定が企業のリスク選好、規制上の義務、および長期的な回復力の目標と確実に一致するようにします。


機械は不審に見える行動にフラグを立てることができますが、その行動の背後にある意図を解釈したり、脅威の文化的、感情的、倫理的側面を理解できるのは人間だけです。


次のシナリオを考えてみましょう。午前 3 時 42 分、AI 監視システムは、雨の中を数回近づいたり退いたりする人物が通用口付近を徘徊している不審なフラグを立てました。システムはアラートを SOC にエスカレーションします。

通訳の役割を果たす当番のアナリストはビデオを確認し、アクセスログをチェックし、その人物が侵入を試みていないことを認識しました。代わりに、その人物は避難所を求めている可能性があり、おそらく脅威ではありませんが、同様の事件はこの 10 日間で 3 件目です。

翌朝、ストラテジストはパターンを検討し、対象を絞ったリスク評価を開始します。彼または彼女は、照明を改善し、近くのカメラの位置を変更するために施設と調整します。ストラテジストは、繰り返されるインシデントを管理するための手順について法的な相談も行っています。

AI が異常に警告しましたが、それに意味を与えたのは人間の洞察力であり、それを計画に変えたのは人間のリーダーシップでした。

これらの人間の役割は、意思決定、説得、組織的信頼が必要な職務であるため、インシデント指揮、規制調整、部門間の調整、利害関係者のコミュニケーションなどの分野で特に重要です。機械はこれらの機能に情報を与えることはできますが、それらを導くことはできません。

従業員のスキルアップ: コグニティブ セキュリティの未来のための知識

このハイブリッド モデルの価値を十分に実現するには、組織は従業員のスキルアップに投資する必要があります。明日のセキュリティ専門家は、緊急時の手順だけでなく、データ リテラシー、AI システムの監視、倫理的リスク分析にも精通している必要があります。

これはもはや推測の域を出ません。 2024 年に、ニューヨーク州金融サービス局は、AI が生成するサイバー攻撃の脅威と、AI システムを安全に設計および開発する方法について、AI 関連コンテンツを含む特定のサイバーセキュリティ トレーニングを受けることを担当者に義務付ける。

AI 強化セキュリティ チームの主な能力分野は次のとおりです:

  • AI とデータ リテラシー:統合セキュリティ プラットフォーム内で AI システムがどのように機能するか、およびさまざまなデータ タイプ (センサー、ビデオ、アクセス制御) が結果にどのように影響するかを理解する

  • ヒューマン マシン インターフェースの熟練度:AI ダッシュボード、ロボット システム、ユーザー フィードバック メカニズムの管理に堪能になる

  • バイアスの検出とモデルの監視: 監査とガバナンスを通じて、機械の意思決定における体系的なバイアスを発見し、軽減する

  • サイバーと物理システムの統合:デジタル AI ツールがカメラやアラームなどの物理的資産とどのように相互作用するかを知る

  • 機械の出力による批判的思考:特に複雑または曖昧なシナリオにおいて、自動化された分析情報を検証し、状況判断を適用する

  • 倫理的リスク分析:法律、社会、評判の側面にわたる機械主導の意思決定の下流への影響の評価

将来に向けたトレーニング: 従業員を前進させる

AI が企業のセキュリティ運用の中核要素となるにつれ、自動化が進む環境で専門家が主導できるよう準備するには、正式なトレーニングと認定が不可欠になります。 SANS Institute のようなプログラム、その指定、および CISSP または CPP トレーニングの AI に重点を置いたモジュールはすべて、セキュリティ設定における AI システムの技術的な流暢さ、倫理的基礎、および運用上の理解を獲得するための重要な手段となります。

さらに、刑事司法や国土安全保障における従来の学位は依然として重要ですが、将来の役割には、データ サイエンス、サイバーセキュリティと情報システム、認知科学やヒューマン マシン インタラクションの心理学、システム エンジニアリングなどの分野の学位を持つ人材も大きく求められます。

技術的な専門知識を開発するには正式なコースと認定資格が不可欠ですが、AI と並行して成功するために必要な協力的な行動の多くは、日々のテクノロジーの使用によってすでに形成されています。ゲーム機から音声アシスタントに至るまで、人々は将来を見据えたセキュリティの役割に驚くほどうまく対応するスキルを開発しています。

Siri、Google アシスタント、ChatGPT などの音声アシスタントと対話することで、プロンプトベースのコミュニケーションにも慣れ、言語ベースの AI システムを効果的に操作するための基礎スキルになります。より良い答えを得るために質問を表現する方法を学ぶこと、またはマシンが効果的に応答できるようにするためのフレーミングの種類を理解することは、将来のセキュリティ専門家が AI 対応プラットフォームとリアルタイムでどのように対話するかをよく反映しています。

AI ベースのツールを何気なく使用するだけでも、次のような影響を与える可能性があります:

  • デジタル直感が向上:機械がどのように命令を処理し、結果を表示するかを理解する

  • AI インタラクションの信頼性:ダッシュボードまたは自動化インターフェイスを使用する際の躊躇の軽減

  • より高速なパターン認識:特にプレーヤーが時間的プレッシャーの下で複数の入力を追跡するゲーム化された環境では

重要なのは、これらの応用可能なスキルを認識し、育てることです。組織は、リスクの低い AI ツールの探索を奨励し、実践的なシミュレーションを実行し、一か八かのセキュリティ イベントだけでなく、AI システムの使用が日常の問題解決の一部となるチーム環境を構築することで、これをサポートできます。

組織は従業員に知識を与えるだけでなく、AI の意思決定を伴う卓上シミュレーションなどのシナリオベースの学習をセキュリティ準備演習に組み込む必要もあります。これにより知識が強化され、チームは現実世界での AI コラボレーションに備えることができます。

最後に、訓練はサイロで行うことはできません。セキュリティ リーダーは、IT、コンプライアンス、法務、データ ガバナンスの各チームと連携した部門横断的な開発を奨励し、セキュリティ運用の関連性と回復力を維持し、企業の広範なデジタル変革戦略に適切に統合できるようにする必要があります。

2030 年のセキュリティ チーム: 人間最高の AI パートナーシップ

AI が企業のセキュリティ エコシステムにさらに深く組み込まれるようになるにつれて、従来のセキュリティの専門知識と、インテリジェント システムを管理、解釈、統治する能力を融合した新しい役割が出現するでしょう。現在の GSOC やリスク チームではめったに見られないタイトルが標準になるでしょう。

AI セキュリティ エンジニア:AI システムをサポートするインフラストラクチャを構築し、保護します。この役割は、AI プラットフォームのセキュリティを確保し、機密のトレーニング データを保護し、企業全体で機械学習モデルを安全かつコンプライアンスに準拠して展開できるように支援することに重点を置いています。

セキュリティ自動化エンジニア:自動化されたセキュリティ ワークフローを設計および実装します。この役割は、手動の作業負荷を軽減し、検出と対応ツールを統合し、監視を損なうことなく運用効率を向上させる AI を活用したソリューションを開発します。

AI 監視アナリスト:AI で強化されたビデオ分析を通じて環境を監視します。従来の CCTV の役割を進化させたこの専門家は、AI によって報告された異常を確認し、誤検知をフィルタリングし、徘徊や共連れなどの行動パターンを評価してインシデントのエスカレーションを導きます。

セキュリティ データ インタープリター:AI の出力を有意義で実用的なインテリジェンスに変換します。インタプリタは、システム ログ、動作パターン、クロスプラットフォームの傾向を分析して、新たな脅威を表面化し、戦術的および戦略的決定を行います。

予測リスク アナリスト:AI モデリングを使用して脆弱性を予測します。この役割は、予測分析を適用して、潜在的な弱点や脅威ベクトルが顕在化する前に特定し、プロアクティブなリスク軽減とリソース計画をサポートします。

脅威インテリジェンス アナリスト:AI ツールを活用してセキュリティの脅威を検出し、対抗します。この専門家は、侵害の兆候、脅威アクターの行動、外部シグナルを分析することで、デジタルと物理の両方の脅威インテリジェンス体制を強化します。

人間と機械の連携:AI システムをセキュリティ ワークフローに統合します。この役割は、技術チームと運用リーダーの間の橋渡しとして機能し、アラート設定を微調整し、AI の再トレーニングの取り組みをサポートし、成果がポリシーや組織の優先事項と一致するようにします。

これらの新しい役割では、AI が脅威にフラグを立てますが、その意味、優先順位、正しい行動方針は人間が決定します。機械はパターンを見るかもしれませんが、人間のオペレーターは視点、直感、行動を適用します。

セキュリティ リーダーは今すぐチームの準備を始めなければなりません。2030 年までにこれらの役割がセキュリティ チームにとって不可欠になるからです。


一部の組織では、よりスマートなデータによる長期的な利益は、人員配置やシステムコストの初期節約を超える可能性があります。


意思決定: AI と人間の適切な組み合わせを見つける

組織が AI を活用したセキュリティ運用に移行するにつれて、重要な戦略的決定に直面することになります。どの程度の自動化が多すぎるのか、どこまでが人間の監視に代えられなければならないのかということです。これらの新しい役割のうちどれを、どのような順序で採用するのでしょうか?彼らはまずどこをテクノロジーでチームを強化することを好みますか?また、プログラムのどの側面が人間中心を保つのが最も快適だと感じますか?

AI と人間の役割のバランスをとるためのリーダーシップに関する質問

これらを調達、導入、監視の決定の指針として使用してください

決定領域

重要な質問

人間の監視

自動化の可能性に関係なく、常に人間が関与しなければならない決定は何ですか?

説明可能性

AI がどのように結論に達するかを理解していますか?他の人に説明してもいいですか?

増強

倫理的な監視を犠牲にすることなく、機械が速度や精度を向上できるのはどこでしょうか?

判断

このツールは人間の能力を強化するのでしょうか、それともひそかに人間の能力を置き換えるのでしょうか?


データ自体を投資収益率として認識するケースも増えています。 AI システムは時間の経過とともに情報を取り込むため、個別のインシデントを検出するだけでなく、運用傾向を表面化し、脆弱性を特定し、予測的な洞察をサポートし始めます。これにより、蓄積されたデータが単なる副産物ではなく戦略的資産になります。

脅威がエスカレートする前に脅威のパターンを理解することにどのような価値があるのでしょうか?それとも、傾向分析を使用してプロアクティブなリソース割り当てを推進しますか?一部の組織では、よりスマートなデータによる長期的な利益は、人員配置やシステムコストの初期節約を超える可能性があります。

セキュリティリーダーは今すぐチームの準備を始めなければなりません。しかし、彼らはそれを明確な現実主義をもって行わなければなりません。 AI の導入には障害がないわけではありません。誇大宣伝サイクルによって期待が歪められる可能性があり、予算の制約によって投資が遅れる可能性があり、AI に精通した人材の不足によって導入が遅れる可能性があります。だからこそ、意図的で価値観に沿ったアプローチが不可欠です。

AI は、スピード、拡張性、耐久性、一貫性などの魅力的な利点を提供しますが、その強みには、判断力、倫理観、信頼構築のためのかけがえのない人間の能力が必要です。

顔認識精度のギャップから予測監視の予期せぬ結果に至るまで、企業は人間によるガバナンスを主導する必要があります。 AI は、脅威検出における誤検知を大幅に削減し、人間のアナリストを圧倒する可能性のある隠れたパターンを表面化するのに役立ちます。しかし、ニュアンスを見逃したり、意図を見落としたり、体系的な偏りを強めたりする可能性もあります。倫理的な誤った判断や、説明が不十分な機械による決定は、予算の節約をはるかに上回る風評被害につながる可能性があります。

エンタープライズ セキュリティの未来は、人間とマシンのどちらかを選択することではありません。

当社のセキュリティ プログラムが新しいテクノロジーに適応し、採用するにつれて、監視、パトロール、警告、トリアージなど、より多くの保護を機械が処理するようになります。人間はテクノロジーの守護者としての役割を担い、判断と戦略的監視を行うことになります。

この変化は人間との関連性の喪失を意味するものではありません。プロモーションです。

 

Rachelle Loyear は、Allied Universal® の統合セキュリティ ソリューション担当副社長であり、エンタープライズ セキュリティ リスク管理 (ESRM) 戦略を主導し、人材、プロセス、テクノロジーを融合して進化する脅威に対処しています。彼女はリスクベースのセキュリティと運用上の回復力を長年提唱しており、ESRM とビジネス継続性に関する複数の書籍を執筆しています。ロイヤー氏は、カジノサイト 北米理事会および SIA サイバーセキュリティ諮問委員会の委員も務めています。

Jeffrey A. Slotnick、CPP、PSP は、この分野で 28 年以上の経験を持つ、国際的に認められたエンタープライズ セキュリティ リスク コンサルタントです。スロットニックは、思想的リーダーおよび変化の推進者として同業者から認められています。彼は、品質管理プログラム、リスク、脆弱性、脅威の評価など、ESRM のあらゆる側面に焦点を当てています。スロットニックは、カリキュラム開発者およびマスター トレーナーとして、セキュリティ、法執行機関、および軍関係者の質の高い専門能力開発とトレーニングを提唱しています。彼は カジノサイト インターナショナルの北米理事会の元メンバーであり、現在はコミュニティ副会長を務めています。

 

この記事は人間の専門知識と編集者の監督のもとに作成されました。著者の指導の下、アウトライン、下書き、表現を支援するために生成 AI ツールが使用され、すべてのコンテンツの正確性と完全性がレビューされました。

 

arrow_upward