ユニセフ(国連児童基金)は2026年2月9日、AI生成・加工による子どもの性的画像(ディープフェイク等)が急増しているとして懸念を示し、各国政府やAI開発者、デジタル関連企業に対策強化を求める声明をニューヨークで公表しました。11カ国調査では、過去1年に性的なディープフェイクに加工されたと報告した子どもが少なくとも120万人に上りました。
ユニセフ、ECPAT、インターポールによる調査は、12~17歳のインターネット利用者約1,000人と保護者約1,000人を対象に実施し、国の人口を91~100%網羅できるよう設計されたとしています。国によっては、被害が18歳未満人口の「25人に1人」に相当し、一部の国では「偽の性的画像や動画が作られるのではないか」と不安を感じる子どもが3人に2人でした。
ユニセフは、AI生成の子どもの性的虐待コンテンツ(CSAM)が被害を生むだけでなく、性的搾取の需要を助長し、法執行の障害になると指摘しました。各国政府にはCSAMの定義にAI生成を含め、作成・入手・所持・流通の犯罪化を要請し、AI開発者には設計段階から安全対策を組み込む「safety-by-design」とガードレール導入、企業には流通防止や検知技術への投資、監視体制強化、即時削除の実現を求めています。
声明は、ユニセフが2025年12月に公表したガイダンス「子どもたちとAI 第3版」に基づくもので、研究はSafe Onlineの資金提供を受けました。今後は研究プロジェクト第2段階として、調査対象国ごとの結果をまとめた報告書が2026年を通じて順次公開される予定です。
【関連リンク】
ガイダンス(英文): https://www.unicef.org/innocenti/reports/policy-guidance-ai-children
ユニセフ見解資料(英文): https://www.unicef.org/media/178571/file/UNICEF%20AI%20CSEA%20Brief_FINAL3.pdf
調査方法(英文): https://safeonline.global/dh2-research-methods_final-2
ユニセフ公式HP: https://www.unicef.org
日本ユニセフ協会: https://www.unicef.or.jp
