AI の弱点をつく攻撃と AI のサイバー攻撃活用 2ページ目 | ScanNetSecurity
2025.12.10(水)

AI の弱点をつく攻撃と AI のサイバー攻撃活用

昨年あたりからマルウェア検知、トラフィック監視・ログ監視にAI、すなわち機械学習やディープラーニング(DL)を使ったセキュリティソリューションが話題になっている。しかし、攻撃側がそれを静観しているという保障はどこにもない。

研修・セミナー・カンファレンス セミナー・イベント
AIの盲点とAI対AIによるセキュリティの攻防(Blackhat USA 2017)
AIの盲点とAI対AIによるセキュリティの攻防(Blackhat USA 2017) 全 13 枚 拡大写真
●AIの精度は入力データによって決まる

ひとつめは「Garbage In, Gargage Out: How Purportedly Great Machine Learning Models can be Screwed Up by Bad Data」という講演。発表者はソフォスのデータサイエンティスト Hillary Sanders氏。

内容はAI(機械学習:ML)モデルの学習データ、テストデータによる判定精度の評価について。それをどのように実運用への精度につなげるかを分析したものだ。分析方法は、3つのマルウェア判定MLモデルに、お互いのテストデータを評価させる。判定精度のばらつきを調べることで、学習データやテストデータと実運用下でのリアルデータとの違いを示し、より精度の高いAIモデルを作るヒントをさぐるという。

この調査でSanders氏が主張するのは「セキュリティ系のML研究者が示すAIモデルの精度はあてにならない。なぜなら楽観的な予測に引きずられているからだ。重要なのは、そのバイアスを認識し、厳密な予想で評価すること。そうすれば、ゴミを吐くMLモデルにしないで済む」ということだ。

MLモデルの作り方をきわめて簡単に説明すると、特定の評価関数に大量の学習データを与えながら、結果に応じて関数の評価式、パラメータを調整していくことで、判定精度を上げていく(学習)。その後、学習データとは別のテストデータ(一般的には特定期間に採集した生データ)を評価させて(テスト)最終的な確認を行いモデルを完成させる。完成したモデルはスタティックなもので入力に対して評価結果を出力するだけで、じつは内部的にはインテリジェントな処理を行っていない。

しかし、学習データはMLの開発者、エンジニアが用意しパラメータ等の調整もエンジニア、つまり人間が行う。そのため、ラボ内での学習とテストでは良好な成績だったとしても実際のデータを処理させたときに精度がでないことがある。

そこでSandars氏は、「異なる学習データとテストデータを用いることで、より精度を高める学習データセットの作り方、テストデータによるモデル精度の変化をどうとらえるかを分析することにした」という。

  1. «
  2. 1
  3. 2

《中尾 真二》

関連記事

この記事の写真

/

特集

PageTop

アクセスランキング

  1. ITコンサル企業、特別損失 73,000,000 円計上 ~ 連結子会社への不正アクセス受け

    ITコンサル企業、特別損失 73,000,000 円計上 ~ 連結子会社への不正アクセス受け

  2. 伊予銀行の再委託先で使用していたローレルバンクマシン提供のクラウドサービスに身代金要求を伴う不正アクセス

    伊予銀行の再委託先で使用していたローレルバンクマシン提供のクラウドサービスに身代金要求を伴う不正アクセス

  3. 不審な通信ログ検知し発覚 ~ 日本ビジネスシステムズに不正アクセス

    不審な通信ログ検知し発覚 ~ 日本ビジネスシステムズに不正アクセス

  4. 大気社の海外グループ会社へのランサムウェア攻撃、社外への情報流出は確認されず

    大気社の海外グループ会社へのランサムウェア攻撃、社外への情報流出は確認されず

  5. 「リサイクル着物おりいぶ」に不正アクセス、208 名のカード情報漏えい

    「リサイクル着物おりいぶ」に不正アクセス、208 名のカード情報漏えい

ランキングをもっと見る
PageTop