生成 AI の 4 つの主なリスク | ScanNetSecurity
2026.01.17(土)

生成 AI の 4 つの主なリスク

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

調査・レポート・白書・ガイドライン 調査・ホワイトペーパー

 ウォッチガード・テクノロジー・ジャパン株式会社は5月7日、悪意ある新型チャットボットとサイバーセキュリティへの影響についての解説記事を発表した。Ryan Estes氏が執筆している。

 2024年末に発見されたサイバー犯罪を目的とした AI チャットボット「GhostGPT」は、洗練されたフィッシングメールやマルウェアを従来では想像もできなかったような速度と手軽さで作成でき、サイバー犯罪者に強力なパワーを与えるとしている。

 GhostGPTは、ユーザアクティビティの履歴を記録せずに匿名性を優先するため、匿名的にチャットボットを使いたいと考える悪意ある攻撃者にとって非常に都合が良く、手軽さと制御の欠如により、かつては技術や時間を要した違法行為が自動化・高速化され、極めて危険なツールとなっているとRyan Estes氏は指摘し、企業にもたらす4つの主なリスクとして下記を挙げている。

1.パーソナライズされた大量のフィッシング
 GhostGPTは、被害者の状況に応じ最適な文体やトーンを模倣し、説得力あるパーソナライズされたメールを生成でき、さらに、数分あれば何百通ものカスタマイズされたバリエーションを作成できるため、攻撃の到達範囲とスピードが大幅に向上している。

2.認証情報の盗難と不正アクセス
 GhostGPTを使えば、簡単なプロンプトで実物とほとんど見分けがつかない偽のログインページを生成できるため、認証情報の窃取が容易となり、攻撃者はこれをフィッシング攻撃に利用する。

3.ポリモーフィックマルウェアと悪意あるコードの作成
 GhostGPTは、リクエストに応じて悪意あるコードを書くことができ、基礎的なマルウェアから十分に機能するランサムウェアの作成まで、経験の浅いサイバー犯罪者であっても、十分に可能なものになっている。特にウイルス対策ソフトを回避するためにコードが絶えず変化する「ポリモーフィックマルウェア」のリスクは深刻である。

4.攻撃戦略の最適化とアドバイス
 GhostGPTは攻撃者に戦略上の助言も提供でき、マルウェア攻撃のためのC2サーバの構築方法やセキュリティ製品の回避手段、特定の脆弱性を突く方法など、具体的な手順を指導する。

《高橋 潤哉》

関連記事

特集

PageTop

アクセスランキング

  1. 「お手数ですが公開されていたサイト等 具体的にお知らせください」横須賀学院 ランサムウェア攻撃による情報流出

    「お手数ですが公開されていたサイト等 具体的にお知らせください」横須賀学院 ランサムウェア攻撃による情報流出

  2. 富士フイルムメディカルに不正アクセス、約 59 万人分の医療従事者等の個人情報が漏えい

    富士フイルムメディカルに不正アクセス、約 59 万人分の医療従事者等の個人情報が漏えい

  3. 「当社の IT 環境については安全であることを宣言いたします」美濃工業株式会社

    「当社の IT 環境については安全であることを宣言いたします」美濃工業株式会社

  4. スカパーJSAT の番組配信サーバに不正アクセス

    スカパーJSAT の番組配信サーバに不正アクセス

  5. 国家サイバー統括室「サイバーセキュリティ関係法令Q&Aハンドブック」Ver 2.0 HTML 版公開

    国家サイバー統括室「サイバーセキュリティ関係法令Q&Aハンドブック」Ver 2.0 HTML 版公開

ランキングをもっと見る
PageTop