ガートナージャパンは10月30日、2026年以降の重要な戦略的展望トップ10を発表した。セキュリティやリスクに関わる展望は以下の通り。
・AI による死亡事故への法的請求が2026年末までに2,000件超
  AI リスクに対するガードレールが不十分なために発生する「 AI による死亡」への法的請求が、2026年末までに世界中で2,000件を超えると同社は予測している。これにより規制当局の監視強化、リコール、訴訟費用の上昇が予想される。組織は最低限の法的義務を果たすだけでなく、 AI のガードレールを利用してビジネス・システムの安全性と透明性を優先させるよう求められる。訴訟リスクの軽減を目的として、AI を活用していないことを宣伝したりするようになる矛盾した状況が生じる可能性がある。
・「 AI を使わない」人材の希少化で採用コスト上昇
 2026年末までに生成 AI の使用による批判的思考力の衰えにより、世界の組織の50%が「 AI を使わない」スキル評価を求めるようになる。独自に思考できる候補者と、 AI の出力に過度に依存する候補者が、雇用で明確に区別され始める。人材採用プロセスが長期化し、認知能力が証明された人材の獲得競争が激化する。金融、ヘルスケア、法律など大きな責任を求められる業界では、このような人材の希少性が採用コストの上昇を招く。
・50億ドル規模の AI コンプライアンス市場が形成
 2027年までに細分化された AI 規制が世界経済の50%をカバーするまでに拡大し、50億ドルのコンプライアンス投資を促進する。2024年には1,000以上の AI 関連法案が提出されたが、どの法案も AI の定義に一貫性がない。専任の人員と専用ソフトウェアを活用する AI ガバナンス・プログラムが標準となり、セキュリティとは独立した形で、新たに発生し進化し続ける AI リスクを管理する取り組みが一般化していく。
・ AI エージェントの経済主体化で新たな攻撃ベクトル出現
 2030年までに金銭取引の20%がプログラマブルな形態となり、 AI エージェントに経済的主体性が付与される。2028年までにB2B購買の90%が AI エージェントを介して行われ、15兆ドルを超えるB2B支出が AI エージェント取引所を通じて処理されるようになる。ガートナーは、プログラマブル・マネーの保管、アクセス・コントロール、取引の完全性においてセキュリティ上の脆弱性があると、信頼が損なわれ、新たな規制枠組みの整備が促されると警告している。 AI エージェントが経済主体として自律的に取引を行う世界は、全く新しい攻撃ベクトルとセキュリティ脅威を生み出す。
企業にとって、これらの課題への対応には、従来の予算と人材戦略の見直しが必要となるだろう。

 
         
         
         
         
        