プルーフポイントは2026年3月17日、AIの振る舞いが利用者の意図や社内ポリシーと一致しているかを継続評価し、危険な動作を検知するインテント認識型AIセキュリティ「Proofpoint AI Security」と、AI運用の成熟度を5段階で示す「Agent Integrity Framework」を発表しました。自律型AIエージェントの利用拡大を受け、権限昇格やゼロクリックのプロンプトインジェクションなどのリスクに備える狙いです。
背景として、Acuvityの調査ではAIガバナンスが十分に整備されていない組織が70%、今後12か月以内にAI関連のデータ損失が起きると予測する割合が50%に上ります。AIエージェントはWeb閲覧や社内システム操作、メール送信、コード実行などを高速に連鎖実行できる一方、既存の対策は通信や権限の可視化が中心で、「本来の意図どおりに動いているか」の検証が難しい点が課題とされます。
Proofpoint AI Securityは、元のリクエスト、定義済みポリシー、意図した目的との整合性を検知モデルで評価し、不整合や高リスクのアクションをリアルタイムに検知します。エンドポイントやブラウザ拡張、Model Context Protocol(MCP)接続などを通じ、承認・未承認AIツールの発見、プロンプト/レスポンス/データフロー監視、アクセス制御やガードレール、実行時ポリシー強制を提供するとしています。
同社は本日から全世界で提供を開始し、Agent Integrity Frameworkでは「意図の整合性」「アイデンティティとアトリビューション」「挙動の一貫性」「監査可能性」「運用の透明性」の5つの柱で、発見から運用まで段階的な導入の道筋を示すとしています。今後は、開発者環境を含む企業全体でAIエージェント活用が進むほど、意図検証と実行時制御をどこまで標準化できるかが焦点になりそうです。
【関連リンク】
詳細URL(英語):https://www.proofpoint.com/us/platform/ai-security
Agent Integrity Framework詳細(英語):https://acuvity.ai/the-agent-integrity-framework-and-maturity-model
ブログ記事(英語):https://www.proofpoint.com/us/blog/corporate-news/intent-design-security-autonomous-ai
公式HP:https://www.proofpoint.com/jp
