実在する子どもの画像を、生成AIや画像加工アプリを悪用して、性的な画像に加工するなどした、いわゆる「性的ディープフェイク」は、世界的に大きな問題になっています。
国内でも「性的ディープフェイク」に関する相談や通報などが、全国の警察に相次いでいて、去年1年間に警察が把握した事案が100件以上にのぼったことが警察庁への取材でわかりました。
このうち、生成AIを悪用して作成されたものだと確認できた事案は少なくとも17件あり、15件は同級生などの知人によって作成されたものだったということです。
検挙に至った事案もあり、服を着ている同級生の女子生徒の画像を、生成AIで裸の画像に加工し、複数の同級生にSNSで拡散した男子中学生が名誉毀損の疑いで書類送検されたケースや、コンビニエンスストアで女子児童を盗撮し、生成AIで成人女性の裸の画像と合成した男の容疑者が、盗撮目的で建物に侵入したとして逮捕されたケースなどがあったということです。
また卒業アルバムの写真を悪用されたケースもあったということです。
警察庁は「警察への相談は一部に過ぎず、被害が潜在化している可能性がある。被害者に寄り添いつつ、法と証拠に基づいて対処する」としていて、青少年保護について話し合う有識者や関係省庁による作業チームで、悪用の実態について共有し、対策を検討することにしています。
NHK NEWS WEB
2025年6月22日 6時10分
https://www3.nhk.or.jp/news/html/20250622/k10014840991000.html
引用元: ・「性的ディープフェイク」相談や通報相次ぐ 警察庁 対策検討へ [香味焙煎★]
どれがと見分けつかないから2次元含めて全部規制でって流れかな
それぐらい
外に出さなきゃセーフ
コメント