生成AIや画像加工アプリなどが悪用された「性的ディープフェイク」の被害が深刻化するなか、子どもが被害を受けるケースの半数は同じ中学校や高校などの同級生が加害者であることがわかりました。
実在する児童の写真などを性的画像に加工して悪用する「性的ディープフェイク」による被害が深刻化するなか、今年9月までに全国の警察に寄せられた被害の相談や申告が前の年の同じ時期より3件増えて79件に上ったことがわかりました。
また子どもが被害を受けたケースの半数以上は同級生が加害者だったこともわかりました。
「性的ディープフェイク」はスマホなどのアプリを使えば、誰でも簡単に加害者になってしまうことが指摘されていて、中学生や高校生の卒業アルバムなど学校行事で撮影された写真が使用され、同級生のグループ内のSNSなどで共有されるケースがあるということです。
実際に男子中学生が、同じ学校に通う女子生徒のSNS上の画像を使用して生成AIで裸に加工し、他の男子生徒に販売した例もありました。
警察庁はこうした性的画像の拡散は、名誉毀損やわいせつ電磁的記録媒体陳列などの容疑で摘発対象となる可能性もあるとして、中高生などの若い世代に注意を呼びかけています。