AI (人工知能) 09-28-2023

サイバーセキュリティにおける AI の今後の役割

AI ソリューションを活用して企業が敵の先手を取るには
Dr. Avesta Hojjati
The Future Role of AI in Cybersecurity

2032 年には市場規模が 1020 億ドルになると推定されているほど、人工知能(AI)があらゆる産業に旋風を巻き起こしていることは周知の事実です。AI の基本的な概念については、私たちもみな知っています。たくさんの写真を見せて、写真に何が写っているかを教え込み、その写真から学習させた上で自分自身で理解できるようにすることで、本当に賢いコンピュータを作るようなものです。

しかし、AI にはデータが必要であり、そのデータがどこから来るのか、どう処理されるのか、その処理から何が出力されるのかを把握するには、アイデンティティとセキュリティの感覚が必要です。多くの人がそのデータの安全性に懸念を抱いているのは無理もありません。2023 年のある調査によると、回答者の 81% が ChatGPT などの生成 AI に関連するセキュリティリスクを懸念しており、AI ツールがインターネットの安全性を高めると楽観視しているという回答はわずか 7% でした。そのため、
AI 技術では強力なサイバーセキュリティ対策がいっそう重要になります。

一方、サイバーセキュリティに AI を適用して、脅威の検知と予防、インシデント対応を改善できる可能性も無限です。したがって、企業はサイバーセキュリティにおける AI の可能性と弱点を理解し、今後予想される脅威に先手を打つ必要があります。この記事では、企業がサイバーセキュリティにおける AI の導入を検討する際に知っておくべき重要な事柄と、
AI に存在する新たな脅威からどのように身を守るべきかについて掘り下げていきます。

サイバーセキュリティの強化に AI をどう活用するか

良い面もあります。AI は、これまでより効果的で正確、迅速な対応によって、サイバーセキュリティを変革することができるということです。AI をサイバーセキュリティに応用するには、以下のような方法があります。

  • パターン認識で誤検出を減らす:AI はパターン認識に優れているため、異常をより的確に検知して行動分析を提供し、脅威をリアルタイムで検知することができます。実際、2022 年に Ponemon Institute が実施した調査によると、AI を活用した侵入検知システムを使用している組織では、誤検知が 43% 減少し、セキュリティチームは真の脅威に集中できるようになったといいます。また、AI を活用したメールセキュリティソリューションが誤検知を最大 70% 削減することも示されました。
  • 人間の能力を向上させて、規模の拡大を実現する:AI を使うと、人間の能力を強化し、レスポンスを迅速にして、拡張性を確保することができます。拡張性を制限する要因は、データを入手できるかどうかだけです。また、AI チャットボットをバーチャルアシスタントとして使用すれば、セキュリティサポートを提供し、人間のエージェントの負担を軽減できます。
  • インシデント対応とリカバリを加速する:AI は、過去のトレーニングやマルチポイントのデータ収集に基づいて処理やルーチンタスクを自動化して、レスポンスタイムを短縮し、検出ギャップを削減できます。AI はレポート処理を自動化し、自然言語クエリを通じてインサイトを提供するとともに、セキュリティシステムを簡素化し、将来のサイバーセキュリティ戦略を強化する推奨事項を提供することも可能です。
  • サンドボックスでのフィッシングトレーニング:生成 AI は、サイバーセキュリティのハンズオントレーニングで求められる現実的なフィッシングシナリオを作成できるので、従業員間に警戒の精神的土壌を醸成し、従業員を現実世界の脅威に備えさせることができます。

データセキュリティに対する AI の潜在的脅威

攻撃者が攻撃に AI を利用する実例がすでに確認されています。以下のような例があります。

  • AI で自動化されたマルウェアキャンペーン:サイバー犯罪者が生成 AI を導入すると、コードや動作を調整して検知を回避する高度なマルウェアを作成することができます。こうした「インテリジェントな」マルウェアは、予測や制御が難しいため、広範囲に及ぶシステムの混乱や大規模なデータ侵害のリスクが高くなります。
  • 高度なフィッシング攻撃:生成 AI は、ユーザーの文体や個人情報を学習して模倣する機能を備えているので、フィッシング攻撃の説得力が格段に上がっています。信頼できる連絡先や定評のある機関から発信されているように見せかけたフィッシングメールは、個人を欺いて機密情報を漏洩させる可能性があり、個人や企業のサイバーセキュリティにとって大きな脅威となります。
  • リアルなディープフェイク:生成 AI の効果で、悪意のある攻撃者はディープフェイク、つまり画像、音声、動画による説得力の高い偽情報を作成できるようになりました。ディープフェイクは、偽情報キャンペーン、詐欺行為、なりすましなどの重大なリスクをもたらします。ある CEO が破産を宣言する驚くほどリアルな動画や、世界的指導者が宣戦布告する捏造音声などを想像してください。こうしたシナリオが今や SF 的な世界ではなくなり、大きな混乱を引き起こす可能性を秘めているのです。

しかも、AI は多くのデータを必要とし、第三者のところでデータが侵害される可能性もあるため、企業はデータを共有する対象を厳密に制限する必要があります。ChatGPT 自体も、Redis オープンソースライブラリの脆弱性が原因でデータ侵害を受け、ユーザーが他のユーザーのチャット履歴にアクセスできる事態を招きました。OpenAI はこの問題を速やかに解決しましたが、チャットボットとユーザーにとっての潜在的なリスクが浮き彫りになりました。機密データを保護するために ChatGPT の使用を全面的に禁止する企業もあれば、AI と共有できるデータを制限する AI ポリシーを導入している企業もあります。

ここでの教訓は、攻撃者が新たな攻撃で AI を使用するよう進化している一方で、企業は侵害の潜在的な脅威から身を守るためにそれを熟知する必要があるということです。

サイバーセキュリティにおける AI の倫理的な考察

サイバーセキュリティにおける AI の導入を語るとき、倫理的な配慮について振れないのは怠慢といえるでしょう。セキュリティとプライバシーを確保するには、責任ある AI の実践と人間の監視を用いることが重要です。AI は学んだことしか再現できませんし、学んだ内容に欠落があることもあります。したがって、企業は AI ソリューションを導入する前に、以下のような点を倫理の観点から検討する必要があります。

  • データバイアスの増幅:AI のアルゴリズムは過去のデータから学習するので、学習に使われるデータにバイアスがあれば、アルゴリズムは意図せずそのバイアスを引きずり、増幅させてしまうおそれがあります。そのため、アルゴリズムが偏ったデータに基づいて判断したり予測したりすると、不公平あるいは差別的な結果を招くことも考えられます。

  • 意図しない差別:学習データやアルゴリズムが考慮する特徴にバイアスがあると、AI アルゴリズムは特定の集団や個人を差別するおそれがあります。これは雇用、融資、法執行のような分野で不公平な扱いにもつながり、そうなったら制御できない要因に基づいた決定が人の命さえ左右しかねません。

  • 透明性と説明責任:AI アルゴリズムの多く、特にディープニューラルネットワークのような複雑なアルゴリズムは、解釈と理解が難しい場合があります。透明性が欠如しているため、どのような経緯でバイアスが混入し、決定が下されたかを見極めるのは難しく、偏った結果や不公平な結果が発生した場合の説明責任が懸念されます。

AI の世界は今なお開拓時代の様相を呈していますが、プライバシーや倫理的な問題に対処するために、これからは透明性と説明責任を求める規制が新たに導入されることになるでしょう。たとえば、欧州委員会はすでに、Google、Facebook(Meta)、TikTok といった大手ハイテク企業に対して、インターネット上の偽情報拡散に対抗する取り組みの一環として、AI が生成したコンテンツにラベルを付ける措置を講じるよう求めています。EU のデジタルサービス法 に従って、プラットフォーマ―は近い将来、わかりやすい指標で偽物を明確に識別できるようにすることを義務化されるでしょう。

サイバーセキュリティにおける人間と AI のパートナーシップ

AI の限界を踏まえると、AI が意思決定のプロセスをスピードアップする一方で、最終的な意思決定者は常に人間でなければなりません。企業は AI を使って複数の選択肢を確保できるので、主な意思決定者が迅速に行動できるようになるかもしれません。だからこそ、AI は人間の意思決定を補うものであって、取って代わるものではないのです。AI と人間が手を取り合えば、単独で成し遂げられる以上のことができるようになります。

AI

人間

  • データとパターンから学ぶ

  • 創造性を模倣できるが、真の感情は欠いている

  • 迅速な処理と分析

  • 事実上無制限のメモリーストレージ

  • 膨大なデータセットに対応できる拡張性

  • 真の自己認識を欠いている

  • 真の共感がない

  • 経験から学び、時間をかけて適応する

  • 創造性と感情的理解を示す

  • AI に比べるとスピードには限界がある

  • 記憶容量に限界がある

  • 特定のタスクを簡単に拡張できない

  • 自己認識と自覚を備えている

  • 共感と感情的なつながりを表現できる

 

PKI を活用して AI でデジタルトラストを構築

公開鍵基盤(PKI) のような技術の活用は、ディープフェイクのような AI 関連の新たな脅威を防ぎ、デジタル通信の完全性を維持するうえで基本的な役割を果たすことができます。

たとえば、Adobe、Microsoft、デジサートなど業界をリードする企業のコンソーシアムが、C2PA(Coalition for Content Provenance and Authenticity)という標準に取り組んでいます。この構想では、デジタルファイルの正当性を検証して確認するという課題に取り組むべく設計されたオープン標準が採用されました。C2PA は PKI を活用して議論の余地のない証跡を生成するので、ユーザーは本物と偽物のメディアを見分けられるようになります。この仕様には、デジタルファイルのソース、作成者、作成日、場所、および変更を確認する機能が設けられています。C2PA の最大の目的は、デジタルメディアファイルの透明性と信頼性を促進することであり、特に今日の環境では AI 生成コンテンツを現実と区別するのが難しくなっていることが前提になっています。

要約すると、AI はサイバーセキュリティの分野で多くの可能性を生み出し、私たちはまだその可能性の表面をなでているにすぎないということです。AI は、サイバー攻撃をしかける側と、その攻撃を防ぐ側のどちらでも利用されるでしょう。しかし重要なのは、AI が完全に人間に取って代わることはできないということを念頭に置きつつ、企業がリスクを認識し、今すぐ解決策を導入し始めることなのです。