何気なくSNSに上げた思い出の写真や卒業アルバムが、AI技術の悪用で裸の画像に加工され、ばらまかれていた。いま、そんな事例が世界各地で明らかになり、社会を揺るがせています。日本でも、水面下で広がり続けている実態がわかってきました。(ロサンゼルス支局 佐伯敏、ソウル支局 山下涼太、機動展開プロジェクト 柳澤あゆみ)ディープフェイクポルノの現状やトラブルについての情報、こちらからお寄せください以下……
このニュースを聞いてやりたくなりました
昔好きだった同級生女子でそういう合成が出来たら抜ける
おれの大学時代のストリップ動画がこの世のどこかに出回ってるはずだから怖くない 裸でギター弾いてる17の時の写真もあるぞ
よくわからんからとりあえず画像を
画像がないと判断できんな😎
こんなつまらない事でAIの未来を妨げるなんでアホのやり方だな。何とか立国目指すなら無視しろ。バカ野郎
みんな、すでにやってるやろ。個人で楽しむには問題ないな。流出させたら逮捕で。
アイコラみたいなもんか
このニュースを聞いてやりたくなりました
昔好きだった同級生女子でそういう合成が出来たら抜ける
おれの大学時代のストリップ動画がこの世のどこかに出回ってるはずだから怖くない 裸でギター弾いてる17の時の写真もあるぞ
よくわからんからとりあえず画像を
画像がないと判断できんな😎
こんなつまらない事でAIの未来を妨げるなんでアホのやり方だな。何とか立国目指すなら無視しろ。バカ野郎
みんな、すでにやってるやろ。個人で楽しむには問題ないな。流出させたら逮捕で。
アイコラみたいなもんか