画像生成AI(人工知能)の精度を上げるための学習に使われる膨大な画像データの中に、国立国会図書館が「違法な児童ポルノの恐れがある」として閲覧を禁じた写真集の一部が含まれていることがわかった。データの中にはほかにも児童の裸の画像が複数あった。ネットから収集する過程で紛れ込んだとみられる。学習する際、違法画像を取り除くフィルター機能があるが、排除しきれていないという。 画像生成AIは、文章を入……
ネットの広告もだが スタート時のモラルが足りなすぎる
見れなくすればいいだけなのにそれはやらない ひたすら監視社会
生成AIを監視するAIを作ればいい。
マジかおじさんに見せてごらん
最初から賢者タイムなら問題ない 変態タイムへ導いてはならない
アホは最新技術に口出すなよ ITのように日本企業が取り残されるぞ
何でもぶち込んだ方が良くない?w えり好みすると精度が下がるのでは
chatGPT始め全ての大規模言語モデルは、 ちょっとでも色気を入力すると監視システムに止められるからな。 画像に関してもそうなるかもしれないね。
ネットの広告もだが スタート時のモラルが足りなすぎる
見れなくすればいいだけなのにそれはやらない ひたすら監視社会
生成AIを監視するAIを作ればいい。
マジかおじさんに見せてごらん
最初から賢者タイムなら問題ない 変態タイムへ導いてはならない
アホは最新技術に口出すなよ ITのように日本企業が取り残されるぞ
何でもぶち込んだ方が良くない?w えり好みすると精度が下がるのでは
chatGPT始め全ての大規模言語モデルは、 ちょっとでも色気を入力すると監視システムに止められるからな。 画像に関してもそうなるかもしれないね。