セキュリティ侵害に関するお問い合わせ

BlackMamba ChatGPT ポリモーフィック マルウェア|スケアウェアか、それともサイバーセキュリティへの警鐘か?

SentinelOneは設立当初から、人工知能 (AI) をサイバーセキュリティに対するアプローチの中核に位置付けてきました。サイバーセキュリティの世界で、常に攻撃者と防御者の激しい競争が繰り広げられていることは、私たち誰もが知っている事実です。 そして、昨年末にChatGPTが登場して以来、攻撃者によるChatGPTや大規模言語モデル (LLM) を使ったサイバー攻撃の試みが幾度も行われています。

最新の試みは、作成者が「Black Mamba」と名付けた、生成 AI を使用して生成されたポリモーフィック型マルウェアでした。そして今、セキュリティソリューションが、この種の AIを利用したマルウェアに対してどれほどの対処能力を備えているかが問われています。 BlackMambaのような概念実証 (PoC) は、根本的に刷新されたツールやサイバーセキュリティへのアプローチがないと組織が無防備になってしまうような、まったく新しい種類の脅威となるでしょうか? それとも、「AI の脅威」は過大に宣伝されているだけであり、攻撃者のTTPのような通常の開発方法の一つに過ぎず、現在のサイバーセキュリティに対する理解度とフレームワークの範囲内で対処できるものなのでしょうか?

AIによって生成されたソフトウェアの能力に対する懸念は、AIテクノロジー自体が脅威なのかという時点にまで発展しています。もしその通りであれば、社会全体がどのようにAIテクノジーへ対応すべきでしょうか。

ここでは、BlackMambaなどのPoCやChatGPTなどのLLM によって提起された質問と一般的な質問を用いて解説します。

「BlackMamba」とは?

BlackMambaの作成者たちによると、BlackMamba はProof of Concept (PoC/概念実証) マルウェアであり、無害な実行可能ファイルを利用して、実行時に高い知名度を持つ AI (OpenAI) にアクセスし、感染したユーザーのキーストロークを盗むことを目的する、ポリモーフィックな悪意のあるコードを返します。

AIの使用は、作成者たち自らの経験から、検知回避に必要である2つの課題を克服することを目的としています。 まず1つ目は、異常なC2ではなく「無害な」リモートソースからペイロードを取得することで、BlackMambaのトラフィックが悪意のあるものと見なされないようにすることです。 2 つ目は、毎回固有のマルウェアペイロードを配信できる生成AIを利用することで、セキュリティソリューションを騙して返されたコードが悪意のあるものとして認識されないようにすることでした。

BlackMambaは、Pythonのexec() 関数を使った無害なプログラム内のAI から動的に生成したコードを実行します。 悪意のあるポリモーフィック部分はメモリに残っているため、BlackMambaの作成者は、既存のEDRソリューションでは検知できない可能性があると主張しています。

BlackMambaに類似したAIが生成したマルウェアの検知

正し、上記の課題はサイバーセキュリティコミュニティで十分に理解されています。Pastebin、Dropbox、Microsoft Azure、AWS、その他のクラウドインフラストラクチャーなどの無害とされるチャネルが、正当なネットワークサービスのノイズの中に悪意のあるトラフィックを隠そうとするのと同じ理由で、過去に悪用されているのを見てきました。

ポリモーフィックマルウェアも新しいものではありません。これは業界が従来の AV ソリューションから、SentinelOneのような次世代のAI駆動型ソリューションに移行するのを後押しした要因の 1 つです。

悪意のあるコードをメモリに隔離することに関して言えば、それはマルウェアを構築するための新しいアプローチではありません。 コードやデータをディスクに書き込まない (したがって、これら一連の動作を監視するセキュリティ対策を回避できる) という考えは、攻撃者にとって長い間魅力的でした。 ただし、最新のセキュリティベンダーは、この戦術を十分に認識しています。 SentinelOneおよび他の多くのEDR/XDRを提供する企業は、保護されたシステムでのこのような動作に必要な可視性を備えています。 悪意のあるコードを (ポリモーフィックであろうとなかろうと) 仮想メモリに制限するだけでは、優れたエンドポイントセキュリティ ソリューションを回避することはできません。

では、AI によって生成されたマルウェアは、AI を利用したセキュリティ ソフトウェアを打ち破ることができるのでしょうか? 実際冒頭で述べたように、これは激しい競争であり、遅れを取る企業は追いつく必要があります。 SentinelOneでは、ChatGPT によって生成されたマルウェアをテストすることにしました。

AI は新たな種類の脅威をもたらすのか?

ChatGPT4やその他の更新されたモデルが利用可能になったことを考えると、今話題のBlackMambaは来月いや来週にでも間違いなく他の AI 生成 PoC に取って代わられるでしょう。では、AI 生成のマルウェアや攻撃に対して、どれほどの懸念事項として組織はとらえるべきでしょうか。

大手メディアや一部のセキュリティベンダーは、AIを怪物フランケンシュタイン(「自ら創造したものへ滅ぼされる者」)として描いています。 ただし、AI は他のテクノロジーと同様に、本質的に悪でも善でもありません。AIが危険であるかは、私たちがAIをどう利用するかに深く関わっています。 BlackMambaのような概念実証では、AIによる新たなリスクにさらされることはありませんが、当然のことながら攻撃者は悪用できるあらゆるツール、手法、手順を探すでしょう。 私たちはテクノロジーを攻撃するべきではありませんが、これまでのように悪意のある目的でテクノロジーを使用する攻撃者を抑止そして防止するよう努めるべきです。

AI ができることとできないことを理解する

AIの議論に渦巻く多くの懸念は、AIとは何か、AIはどのような仕組みであるかを明確にする必要性があることと深く関連しています。 AIシステムやChatGPTのようなLLMの有効性は、そのデータセットの品質と多様性に依存します。そして、モデルのトレーニングに使用されるデータセットによって、その機能と制限が決まります。

防御側は、独自のデータセットを作成することで競争条件を平準化できます。そしてこれは、SentinelOneが長年専門とする脅威検知と対応モデルのトレーニングとして使用することができます。

とはいえ、AIは何でもできる魔法の技術ではありません。 特にサイバーセキュリティにおいてAI ができることには限界があります。 AI ベースのシステムは、防御を回避する敵対的攻撃などの巧妙な攻撃によってだまされる可能性があります。 さらに、AI は判断を下すことができず、加えてデータセットが多様でない場合は判断にバイアスが生じる可能性があります。

よって、私たちはAIの限界を認識し、包括的なセキュリティ戦略の一部としてAIを使用する必要があります。 SentinelOneは、AIを他のセキュリティテクノロジーや人間の知性と組み合わせた多層アプローチを採用しています。

人間の知性はどうでしょうか?

今日のAI主導の世界では、最新の技術的進歩にとらわれやすく、人間の知性の重要性を見落としがちです。 膨大な量のデータを分析しパターンを特定するAIの能力があっても、緊迫した重要度はないにせよ人間の関わりは依然として不可欠です。AIの能力を補うためには、人間が推論し創造的かつ批判的に考える能力が必要です。

攻撃者と防御者はAIによってオペレーションの自動化を実現していますが、効果的なセキュリティ対策を戦略化して展開する、AIをいつどのように使用してゲームの優位性を維持するかを決定できるのは人間の知性のみです。

National Cybersecurity Strategyなどの最近のイベントは、ビジネスや社会を脅威から守ることは、単一のツールを使用したり一流の人材を採用したりするだけではないことを示しています。 AIがその長所と短所について多くの議論を巻き起こすのと同じように、インターネットはサイバーセキュリティをベンダー、顧客、研究者、法執行機関など、さまざまな利害関係者間の協力を必要とする集合的な課題とさせました。

情報を共有し連携することで、AIを利用した攻撃に耐えられるより堅牢な防御システムを構築できます。 成功のためには、競争意識から離れて協力精神を受け入れる、マルウェアに関する専門知識を組み合わる、そして攻撃者の考え方を理解することで、絶え間なく変化する脅威の状況に対処できる製品をAIを使い作成する必要があります。人間の知性というのは、AI主導の防御を真に効果的にさせる欠かせない要素なのです。

結論

サイバーセキュリティは、攻撃者と防御者の間のいたちごっこです。 攻撃者は防御を回避する新しい方法を試みますが、防御者は常に一歩先を行こうとします。 マルウェアでのAI使用は、このゲームのひねりの1つです。 私たちのようなセキュリティベンダーは何10年にも渡りこのゲームを行ってきました。 SentinelOneでは、AIの計り知れない可能性を理解しており、AIを駆使し10 年以上に渡りお客様を保護してきました。

私達は、ChatGPTを含むジェネレティブAIとLLMは、人々が良くも悪くも使用できるツールにすぎないと考えています。テクノロジーを恐れるのではなく、防御を改善し、防御側のスキルを育成することに集中する必要があります。

SentinelOne がエンドポイント、クラウド、ID サーフェス全体で組織を保護する方法について詳しくは、お問い合わせあるいはデモをご依頼ください。