AI の弱点をつく攻撃と AI のサイバー攻撃活用 2ページ目 | ScanNetSecurity
2026.01.23(金)

AI の弱点をつく攻撃と AI のサイバー攻撃活用

昨年あたりからマルウェア検知、トラフィック監視・ログ監視にAI、すなわち機械学習やディープラーニング(DL)を使ったセキュリティソリューションが話題になっている。しかし、攻撃側がそれを静観しているという保障はどこにもない。

研修・セミナー・カンファレンス セミナー・イベント
AIの盲点とAI対AIによるセキュリティの攻防(Blackhat USA 2017)
AIの盲点とAI対AIによるセキュリティの攻防(Blackhat USA 2017) 全 13 枚 拡大写真
●AIの精度は入力データによって決まる

ひとつめは「Garbage In, Gargage Out: How Purportedly Great Machine Learning Models can be Screwed Up by Bad Data」という講演。発表者はソフォスのデータサイエンティスト Hillary Sanders氏。

内容はAI(機械学習:ML)モデルの学習データ、テストデータによる判定精度の評価について。それをどのように実運用への精度につなげるかを分析したものだ。分析方法は、3つのマルウェア判定MLモデルに、お互いのテストデータを評価させる。判定精度のばらつきを調べることで、学習データやテストデータと実運用下でのリアルデータとの違いを示し、より精度の高いAIモデルを作るヒントをさぐるという。

この調査でSanders氏が主張するのは「セキュリティ系のML研究者が示すAIモデルの精度はあてにならない。なぜなら楽観的な予測に引きずられているからだ。重要なのは、そのバイアスを認識し、厳密な予想で評価すること。そうすれば、ゴミを吐くMLモデルにしないで済む」ということだ。

MLモデルの作り方をきわめて簡単に説明すると、特定の評価関数に大量の学習データを与えながら、結果に応じて関数の評価式、パラメータを調整していくことで、判定精度を上げていく(学習)。その後、学習データとは別のテストデータ(一般的には特定期間に採集した生データ)を評価させて(テスト)最終的な確認を行いモデルを完成させる。完成したモデルはスタティックなもので入力に対して評価結果を出力するだけで、じつは内部的にはインテリジェントな処理を行っていない。

しかし、学習データはMLの開発者、エンジニアが用意しパラメータ等の調整もエンジニア、つまり人間が行う。そのため、ラボ内での学習とテストでは良好な成績だったとしても実際のデータを処理させたときに精度がでないことがある。

そこでSandars氏は、「異なる学習データとテストデータを用いることで、より精度を高める学習データセットの作り方、テストデータによるモデル精度の変化をどうとらえるかを分析することにした」という。

  1. «
  2. 1
  3. 2

《中尾 真二》

関連記事

この記事の写真

/

特集

PageTop

アクセスランキング

  1. Linux カーネルでの TLS プロトコル通信処理の不備に起因する境界外メモリアクセスの脆弱性(Scan Tech Report)

    Linux カーネルでの TLS プロトコル通信処理の不備に起因する境界外メモリアクセスの脆弱性(Scan Tech Report)

  2. 大企業の 66.8 %がセキュリティ不備を理由に取引停止や契約更新を見送る しかし取引停止された中小企業は景気悪化等が理由と誤認識

    大企業の 66.8 %がセキュリティ不備を理由に取引停止や契約更新を見送る しかし取引停止された中小企業は景気悪化等が理由と誤認識

  3. マイページへのアクセスが不可能に ~ カンバスにランサムウェア攻撃

    マイページへのアクセスが不可能に ~ カンバスにランサムウェア攻撃

  4. 関西総合システムにランサムウェア攻撃、クラウドサービスへの影響はなし

    関西総合システムにランサムウェア攻撃、クラウドサービスへの影響はなし

  5. デンソーグループ内全従業員に Microsoft SharePoint Online 内のデータの閲覧・ダウンロード権限付与

    デンソーグループ内全従業員に Microsoft SharePoint Online 内のデータの閲覧・ダウンロード権限付与

ランキングをもっと見る
PageTop