[Cortex XDR/XSIAM]AIの力をサイバーセキュリティに応用する

キャンセル
次の結果を表示 
表示  限定  | 次の代わりに検索 
もしかして: 
告知
L4 Transporter
評価なし

この記事では、PaloAlto NetworksのCortexソリューションにおけるAI利用について、

弊社のブログの中から興味深い3つ記事について取り上げてご紹介したいと思います。

日本語訳を読むためにはブラウザの翻訳機能をご利用ください。

 

1つ目の記事は、「サイバーセキュリティにおけるAIの5つの特有の課題(機械翻訳)」です。

 

サイバーセキュリティにAIを応用するには特有の課題があること、

それらに対して弊社がどのように考えCortex XDR/XSIAMに応用しているのかについて説明しています。

https://www.paloaltonetworks.com/blog/2024/03/challenges-for-ai-in-cybersecurity/

 

 

2つ目の記事は、「Cortex XDR SmartScore テクノロジーでアラート疲労を軽減(機械翻訳)」です。

 

SOCチームは膨大なデータから作られる膨大なアラート対応に忙殺されています。

重要な事柄に注力するために、手組みでスコアリングルール(アラートの優先度をつけるため)を

作成しているケースもあるでしょう。

しかし脅威が変化すればルールのチューニングも必ず必要になるでしょうし、

アラートに対応するだけでも忙しいのに、環境に合わせてルールも調整していくのは多大な労力を消費します。

 

Cortex XDR/XSIAMはインシデント対応の優先度をAIの力を使ったスコアリングの技術を開発し、

対応の優先順位付けの指標として利用することを可能としています。

Smart Scoreがどのような機能で利用者がそこからどのようなベネフィットを得られるのか、

こちらの記事で紹介されています。

 

https://www.paloaltonetworks.com/blog/security-operations/beating-alert-fatigue-with-cortex-xdr-smar...

 

 

3つ目の記事は、「ブラックボックスのロックを解除する: MLベースのインシデント リスクスコアリングの透明性(機械翻訳)」です。

 

AI活用を躊躇する要因の1つに、AIがもたらす結果がブラックボックスで不明瞭、ということがあると言われています。

重要な判断が求められる局面では、AIを使う側がその結果を理解し納得できる必要があります。

 

一方2つ目の記事でご紹介したSmartScoreですが、AIの力を使ってインシデントの重大度を算出する際、

同様の課題感がありました。そこでAIがもたらす結果を効率的に、納得感を持って使えるように、

説明可能性をという考え方を取り入れ、AIの判断に対して人間が理解可能な説明を加えるようにしました。

それに関する詳細がこちらの記事で紹介されています。

 

https://www.paloaltonetworks.com/blog/security-operations/unlocking-the-black-box-transparency-for-m...

 

 

最後に、

Palo Alto Networksはセキュリティオペレーション領域に対するAI、自動化テクノロジーへ大きな投資を行っております。

 

今回紹介させていただいた記事をお読みいただくことで、

Cortexがただ単にAIをサイバーセキュリティという分野で社会実装しているだけではなく、

信頼できかつ透明性が確保された説明可能なAI (Explainable AI)を持ったリューションであることを

ご認識いただけるものと考えています。

また、記事の中で言及されていませんが、Cortex XDR/XSIAMが実際に脅威検出を行うアナリティクスも

詳細な説明を文書として公開していますので、どのような脅威を検出することが可能か確認可能になっています(最後にリンクを貼ってあります)。

 

 

Tech Doc

Smartscoreの説明はこちら

アナリティクスの詳細はこちら 

この記事を評価:
  • 2083 閲覧回数
  • 0 コメント
  • 1 賞賛
Register or Sign-in
寄稿者
記事ダッシュボード
バージョン履歴
最終更新日:
‎04-25-2024 08:07 AM
更新者: