人工知能によるサイバー攻撃
SHERPA(英語)(AIとビッグデータが及ぼす倫理的および人権的な影響を調査するEU資金によるプロジェクト)による最新の調査では、AIの活用分野の拡がりが指摘されています。このAIに関する報告書は誰もが無料で入手できるため、悪意に満ちた目的を持った者でも簡単に入手し、利用することができます。
確かに、脅威アクターがサイバー攻撃においてAIを活用する可能性があるという明確な兆候は存在します。しかし、現段階では、データ分析に使用されることはあっても、少なくとも当面の間は、武器として標的に対して直接的に使用されることはないだろうと、エフセキュアのAndy Patel(アンディ・パテル)は述べています。
Andyは、エフセキュアの人工知能研究拠点(AI CoE)のリサーチャーですが、彼は次のように説明しています。「機械学習技術が悪意のある目的で犯罪組織や国家によって使用されている場合は、主としてデータ分析のためだと思われます。昨年1年間に、侵入テストを実行するために機械学習技術を使用する方法や、悪意のある実行可能ファイルにリバースエンジニアリング機能を追加する方法を説明する、興味深い概念実証(PoC)が浮上してきました。このような概念実証が改善され進化すれば、最終的に攻撃者のツールキットになるかもしれません。」
この調査では、AIベースの攻撃が開発されるまでのさまざまな道筋が示されています。それらの多くは既存の研究と技術に基づいています。そして、その一部は既に悪用されていますが、その目的はほとんど解明されていません。
偽のコンテンツ
AIを駆使している攻撃者によってもたらされる最も差し迫った脅威が、偽のコンテンツの作成であることを聞いて驚く人もいるかもしれません。「フェイクニュース」は何年もの間世間を賑わしてきました。しかし、偽のコンテンツにははるかに多くの応用方法があります。そしてAIは、人とマシンの両方を欺く偽のコンテンツを作成できることは明白です。
「現時点で、説得力のある偽コンテンツを作成する能力は、それを検出する能力よりもはるかに洗練されていることも事実です。そして、AIは、音声、ビデオ、画像を偽装する能力を向上させ、偽情報や偽コンテンツをより本物らしく見せて検出を困難にしています。」とAndyは述べています。「そして、説得力のある偽コンテンツにはさまざまな応用の仕方があるため、深刻な問題に発展する可能性があります。」
実際に、AIにより偽装されたコンテンツの応用事例には事欠きません。この調査報告書にはその一部が説明されています。Lyrebird.ai(英語)、DeepFakes(英語)、pix2pix(英語)、CycleGan(英語)、そしてOpenAIのGPT-2(英語)は、すべて偽コンテンツを生成するための注目すべきAI技術とサービスです。この調査で参照された興味深い事例のひとつは、研究者がAIを使って作成されたと信じている偽のTwitterプロフィール(下の写真)です。
このタイプの偽コンテンツには、単なる偽情報を超えた応用事例があります(これはほぼ確実にユースケースのひとつですが)。この調査によると、サイバーセキュリティ研究者は、自律的にフィッシングメッセージを作成することができるAIの概念実証をすでに実施しています。まだ実際の攻撃には適していませんが、完全に自動化されたエンドツーエンドのAIを利用したフィッシングへの第一歩と言えます。この調査では、スパムキャンペーンに向けて同様の機能が開発される可能性があると予測しています。
インテリジェントオートメーション
AIの最大の強みのひとつは、タスクを自動的に実行することです。データ処理はその好例です。大量のデータを捜索するのはうんざりする作業です。幸いなことに、AIはうんざりだと感じるほどには進化していないため、このような退屈で細かな作業には最適です。
この調査によると、インテリジェントオートメーションは攻撃者の能力を増強させることが分かっています。それは彼らに「ビッグデータ」の恩恵を与えることにより、攻撃能力を本質的に新たな高みへと引き上げるでしょう。この調査で明らかにされたインテリジェントオートメーションの将来可能性のある用途には以下の項目が含まれます。
- スパムキャンペーンやDDoS攻撃の新しい標的を自動的に特定するボットネット
- 標的に感染して偵察を行った後にカスタマイズされたペイロードを作成する「インテリジェント」マルウェア
- 標的側の検出メカニズムを回避する目的で、バックエンドでAIを使用したペイロードの配信(既に実行されているという人もいます)
- 悪意のあるAIモデルが既存のAIシステムを操作するための戦略全体を作成することで実行される、エンドツーエンドのフェイクニュースと偽情報のキャンペーン
偽情報とフェイクニュース
フェイクニュースはすでに発生しています。この調査では、世界中のさまざまな偽情報キャンペーンの例を挙げています。これはエフセキュアの定期的な研究テーマでもあります(エフセキュアラボからのニュースブログでTwitterのリサーチ(英語)に関する数多くの記事を読むことができます)。
しかし、この調査ではAIが進化するにつれて、これらの偽情報キャンペーンははるかに高度化され危険度が増すと指摘しています。
「…これらのシステムを動かすためにもっと複雑なアルゴリズム(例えば強化学習に基づく)が使用された場合、それらは人間の行動に対する最適化ループを作成することになるかもしれません。レコメンダーは、各標的の現状を観察し、標的が望む意見や行動をアルゴリズムが観察し始めるまで、標的に送り込む情報を調整し続けます。基本的に、システムはそのユーザを最適化しようとします。」
AIがユーザの嗜好、信念、行動につけ込む具体的な方法には以下が含まれます。
- ユーザのアイデンティティ、好みなどの評価に基づいて、ユーザが見る内容を限定する。(すでにある程度実行されています)
- コンテンツに難色を示すユーザにのみそのコンテンツを公開することで、それを投稿/共有する気を削ぐ。
- 同様に、このアルゴリズムでは、 賛意を表するユーザとのみコンテンツを共有できるため、そのユーザは類似のコンテンツをより頻繁に共有するように誘導される。
- ユーザが異なる意見や否定的な意見にさらされるのを防ぐことで、ユーザを幻想の世界に閉じ込める。
- インタラクションに基づくビューの変更を追跡し、それらの目的に向けてコンテンツのプロモーションや制作を開始することも可能。
AIの脅威はどこに向かうのか?
誰も未来を予測することはできません。AIでも人間の知性でも無理です。しかし、AIによる攻撃が発展する可能性があるこれらすべての潜在的な道筋に共通するのは、現在は人間の攻撃者によって行われている作業のほとんどをAIが引き受けることになるという考え方です。最終的には、機械学習モデルが開発され、「サービスとしてのサイバー犯罪(cyber crime as a service)」というビジネスの形でサイバー犯罪者によって収益化されるようになるかもしれません。
それはいずれ時が経てばわかるでしょう。
カテゴリ