卒業アルバムやSNS上の子どもの顔写真を使い、AIの技術で、わいせつな画像や動画に加工する「性的ディープフェイク」が問題になっていることを受けて、平井知事は「青少年健全育成条例」を改正し、こうした画像や動画を「児童ポルノ」と定義して、取り締まりの対象としたいという考えを明らかにしました。「性的ディープフェイク」をめぐっては、本物と酷似したわいせつ画像や動画を作成できる格安の加工サイトが現れるな……
ジャップには性教育が足らないからな 見境なしに性犯罪
被害者どこにいんだよアホか
獣耳と尻尾つけてもダメかな
まあダビデ像のちんちんもダメみたいだし。
被害者なしで逮捕かヤバいなw
実在する人物の顔写真だから まずいんだろ
実写とほとんど区別つかないレベルになってるし
盗撮ものとかも罰金10倍とか課さないと
ジャップには性教育が足らないからな 見境なしに性犯罪
被害者どこにいんだよアホか
獣耳と尻尾つけてもダメかな
まあダビデ像のちんちんもダメみたいだし。
被害者なしで逮捕かヤバいなw
実在する人物の顔写真だから まずいんだろ
実写とほとんど区別つかないレベルになってるし
盗撮ものとかも罰金10倍とか課さないと