AIIMG

 最近ChatCPTなど人工知能(AI)が大流行していますが、このテクノロジーを利用して悪意のある攻撃者が、サイバー犯罪を加速させる道を可能にしています。

 SlashNextの調査結果によると、新しい生成AIのWormGPTと呼ばれるツールは、攻撃者が高度なフィッシングおよびビジネスメール詐欺(BEC)攻撃を可能にする方法として、アンダーグラウンドフォーラムで宣伝されているとのことです。

 キュリティ研究者のダニエル・ケリーによると、「このツールは、悪意のある活動のために特別に設計された、GPTモデルのブラックハットの代替手段としての地位を確立しています。サイバー犯罪者は、このようなテクノロジーを使用して、受信者に合わせてパーソナライズされた説得力のある偽の電子メールの作成を自動化できるため、攻撃が成功する可能性が高まります。」と述べています。
 
 アンダーグラウンドフォーラムで宣伝しているソフトウェアの作者によると、「有名なChatGPTの最大の敵」と表現しており、「あらゆる種類の違法なことをすることができます」とのことです。このツールが悪意のある人物の手に渡ると、特にOpenAI ChatGPTとGoogle Bardが説得力のあるフィッシングメールを作成し、悪意のあるコードを生成するための大規模言語モデル(LLM)の悪用に対抗するための措置を講じることが増えているため、WormGPTのようなツールは強力な武器になる可能性があります。

 「サイバーセキュリティの分野におけるバードの不正使用防止リストリクターは、ChatGPTのリクターと比較して大幅に低い」とチェック・ポイントは今週のレポートで述べた。「その結果、Bardの機能を使用して悪意のあるコンテンツを生成するのがはるかに簡単になります。」
 WormGPTが倫理的な境界なしに動作するという事実は、生成AIによってもたらされる脅威を強調しており、初心者のサイバー犯罪者が技術的な手段を持たずに迅速かつ大規模に攻撃を開始することさえできます。
 さらに悪いことに、脅威アクターはChatGPTの「脱獄」を促進し、ツールを操作して機密情報の開示、不適切なコンテンツの生成、有害なコードの実行を伴う可能性のある出力を生成するように設計された特殊なプロンプトと入力を設計しています。

 「ジェネレーティブAIは、非の打ちどころのない文法でメールを作成し、正当に見せかけ、疑わしいものとしてフラグが立てられる可能性を減らすことができます」とケリー氏は述べています。つまり、今までのような疑わしい文書や、明らかにおかしい発信元、身に覚えのないやり取りなどからメールを見分けて攻撃メールなどと振り分けしていたものが、あたかも普通のような文書・発信元など、普段と同じ見分けのつかないメール内容で、それが攻撃メールだったということが発生してしまうのです。

 また、ジェネレーティブAIの使用は、高度なBEC攻撃の実行を簡単にしているようで、スキルがない人でもこのテクノロジーを使用し、より幅広いサイバー攻撃をすることができるとのことです。AIが広まっている現在、すべてがAIに支配されることによって当然このようなことが出来てしまうのも時間の問題であったため予想は出来ていたかもしれませんが、AIの使用しての何らかの線引きや上限・ルールなどを設けなければ、いずれ大変なことになってしまうということは言うまでもなく、全世界上げてAIに対しての何らかの措置を取らなければならない時期にきていると思います。同時にAIを開発する側にも倫理的なハードルを設けなければ、いずれ自分たちの首を絞めてしまうかもしれません。