生成 AI の 4 つの主なリスク | ScanNetSecurity
2025.10.04(土)

生成 AI の 4 つの主なリスク

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

調査・レポート・白書・ガイドライン 調査・ホワイトペーパー

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

 2024年末に発見されたサイバー犯罪を目的とした AI チャットボット「GhostGPT」は、洗練されたフィッシングメールやマルウェアを従来では想像もできなかったような速度と手軽さで作成でき、サイバー犯罪者に強力なパワーを与えるとしている。

 GhostGPTは、ユーザアクティビティの履歴を記録せずに匿名性を優先するため、匿名的にチャットボットを使いたいと考える悪意ある攻撃者にとって非常に都合が良く、手軽さと制御の欠如により、かつては技術や時間を要した違法行為が自動化・高速化され、極めて危険なツールとなっているとRyan Estes氏は指摘し、企業にもたらす4つの主なリスクとして下記を挙げている。

1.パーソナライズされた大量のフィッシング
 GhostGPTは、被害者の状況に応じ最適な文体やトーンを模倣し、説得力あるパーソナライズされたメールを生成でき、さらに、数分あれば何百通ものカスタマイズされたバリエーションを作成できるため、攻撃の到達範囲とスピードが大幅に向上している。

2.認証情報の盗難と不正アクセス
 GhostGPTを使えば、簡単なプロンプトで実物とほとんど見分けがつかない偽のログインページを生成できるため、認証情報の窃取が容易となり、攻撃者はこれをフィッシング攻撃に利用する。

3.ポリモーフィックマルウェアと悪意あるコードの作成
 GhostGPTは、リクエストに応じて悪意あるコードを書くことができ、基礎的なマルウェアから十分に機能するランサムウェアの作成まで、経験の浅いサイバー犯罪者であっても、十分に可能なものになっている。特にウイルス対策ソフトを回避するためにコードが絶えず変化する「ポリモーフィックマルウェア」のリスクは深刻である。

4.攻撃戦略の最適化とアドバイス
 GhostGPTは攻撃者に戦略上の助言も提供でき、マルウェア攻撃のためのC2サーバの構築方法やセキュリティ製品の回避手段、特定の脆弱性を突く方法など、具体的な手順を指導する。

《高橋 潤哉》

関連記事

特集

PageTop

アクセスランキング

  1. 業務目的外でパソコンを利用中に詐欺サイトに接続 ~ 委託事業者パソナの従業員

    業務目的外でパソコンを利用中に詐欺サイトに接続 ~ 委託事業者パソナの従業員

  2. ガートナー、2025 年版の日本におけるセキュリティのハイプ・サイクル発表

    ガートナー、2025 年版の日本におけるセキュリティのハイプ・サイクル発表

  3. 諭旨解雇処分 ~ 電気通信大学 准教授 共同研究先の企業に秘密を漏えい

    諭旨解雇処分 ~ 電気通信大学 准教授 共同研究先の企業に秘密を漏えい

  4. Microsoft が土壇場で譲歩 欧州 Windows 10 ユーザーだけに猶予措置

    Microsoft が土壇場で譲歩 欧州 Windows 10 ユーザーだけに猶予措置

  5. パソナの派遣社員が独立行政法人に関する情報を不正に持ち出し、削除の要請にも応じず

    パソナの派遣社員が独立行政法人に関する情報を不正に持ち出し、削除の要請にも応じず

ランキングをもっと見る
PageTop