2025-06-24 コメント投稿する ▼
性的ディープフェイクに削除要請強化へ こども家庭庁が対策本格化、広告規制も検討
性的ディープフェイク被害が深刻化 こども家庭庁が削除要請強化へ
生成AIや画像加工技術の進化が、取り返しのつかない被害を子どもたちに与えつつある。近年、実在する子どもの写真をもとに、AI技術で性的な画像へと加工される「性的ディープフェイク」の被害が全国で急増。こども家庭庁や警察庁、法務省など関係機関が、緊急に連携し対応を強化する方針を打ち出した。
問題となっているのは、学校の卒業アルバムやSNSに投稿された子どもたちの写真が、生成AIによって不正に加工され、あたかも本人が写っているかのような虚偽の性的画像が作成・拡散されているケースだ。名誉毀損や人格権侵害を超えて、子どもの尊厳を踏みにじる犯罪行為でありながら、現行法の対応が追いついていない現実がある。
「娘の卒アルが勝手に使われた。震えが止まらなかった」
「AIで作ったから無罪、なんて絶対に許されてはいけない」
「悪質すぎる。法律が追いついてないのが信じられない」
違法画像の削除要請を強化 実態把握にも本腰
こども家庭庁が23日に開いた作業部会では、警察庁や法務省と連携し、性的ディープフェイク画像の削除要請を強化することが合意された。具体的には、インターネット上に流通する違法な画像に対して、サイト管理者やプロバイダに対し迅速な削除を求める対応体制を構築する。
これまでは、児童ポルノとして明確に該当するかどうかの判断が必要で、削除に時間を要するケースが多かった。AIが作り出した「疑似的」画像であっても、被害者にとっては重大な精神的苦痛を伴うことから、削除要請の範囲を広げる方向性が示された。
加えて、被害件数や発生ルートなどの実態把握にも本格的に乗り出す方針が示されており、警察庁とも連携して通報・相談体制の整備を進めるという。
「削除要請が後手すぎる。もっと迅速な対応できる仕組みを」
性的広告表示の規制強化も検討 企業への優遇措置案
問題は画像だけではない。インターネット上の一部の広告には、子どもがアクセスするゲームアプリや動画サイトにもかかわらず、過激な性的表現を含む広告が表示されるケースが後を絶たない。
これに対し、こども家庭庁は広告業界に対して自主規制の強化を促すとともに、子ども向けサイトでの適正表示を徹底するよう要請。今後は、業界団体や広告配信企業に対し、「対策を講じる企業への優遇措置」などのインセンティブ導入も検討するという。
たとえば、広告表示の安全性が高いと認定された事業者に対し、行政による表彰や、入札時の加点措置などが想定されている。こうした制度は、自主的な取り組みを後押しする有効な手段となる可能性がある。
「小学生が見るアプリに下品な広告が出るなんて異常」
法整備の遅れと教育現場への影響
現在、日本には性的ディープフェイクそのものを直接的に処罰する法律はない。児童ポルノ禁止法や名誉毀損罪などで一部対応できる場面はあるが、生成AIによる「創作物」の扱いが曖昧なまま放置されている。
海外ではすでにAIポルノに対する規制法案が進んでおり、日本も法整備の遅れが目立つ。とくに被害に遭うのが未成年である以上、スピード感をもった対策が求められている。
教育現場でも影響は広がっており、学校側が卒業アルバムの写真管理を強化したり、生徒に対して「SNS投稿は加工される可能性がある」と注意喚起を行うケースが増えている。だが、それだけで防げる問題ではない。社会全体が一丸となって「デジタル上の性被害」への理解を深め、対策を講じることが求められている。
こども家庭庁は、「子どもが被害者にも加害者にもならず、安全にインターネットを利用できる環境を整備する」との基本方針を示している。単なる技術対応ではなく、法制度、教育、社会意識の総動員が今こそ必要とされている。
「AI時代の性犯罪、未然に防げる仕組みが求められる」