Aladdin Security株式会社は9月22日、生成AIに対するセキュリティ評価を専門とした「AIレッドチームサービス」の正式リリースを発表した。
同サービスは、生成AI/大規模言語モデル(LLM)の安全性・信頼性・法令遵守を検証するための包括的な演習プログラムで、OpenAI主催の国際競技大会「GPT-OSS 20B Red Teaming」で入賞した同社の技術力を背景に、攻撃者視点で生成AIシステムを検証し、リスクを顕在化させる。
同サービスはチャットボット・顧客対応AI(コールセンター、FAQ応答など)、業務支援AI(社内文書検索、RAGシステム、自動要約など)、生成系アプリケーション(文章生成、コード生成、画像生成AIなど)のAIシステムに適用可能。
「AIレッドチーム演習サービス」は、下記のステップで提供される。
1:リスクヒアリング・設計
利用中または導入予定のAIシステムに合わせ、対象範囲・攻撃シナリオを設計。
2:攻撃シミュレーション
ジェイルブレイク攻撃、アドバーサリアルプロンプト、情報漏えい誘発、バイアステストなど、多様な攻撃手法を実施し、AIの脆弱性を検証。
3:評価・レポーティング
発見されたリスクを体系的に分類し、深刻度・影響範囲を提示。経営層向けサマリーと技術チーム向け詳細レポートを提供。
4:改善提案
対策案を提示し、継続的にAI防御体制を強化。