【IT】生成AI 児童ポルノ画像を学習か 専門家「被害者の人権侵害恐れ」 [雑用縞工作★]
■ このスレッドは過去ログ倉庫に格納されています
画像生成AI(人工知能)の精度を上げるための学習に使われる膨大な画像データの中に、国立国会図書館が「違法な児童ポルノの恐れがある」として閲覧を禁じた写真集の一部が含まれていることがわかった。データの中にはほかにも児童の裸の画像が複数あった。ネットから収集する過程で紛れ込んだとみられる。学習する際、違法画像を取り除くフィルター機能があるが、排除しきれていないという。
画像生成AIは、文章を入力すると、イラストや写真のような画像を作り出す。最も人気が高い画像生成AIの一つ「ステーブル・ディフュージョン(SD)」が学習に使うデータセット(データ群)はネット上で公開されていた。
読売新聞が昨年12月、内容を調べた結果、1993年に出版された裸の少女を写した写真集の画像データが見つかった。
出版当時は規制する法律がなかったが、18歳未満の性的画像の公開などを禁じた児童買春・児童ポルノ禁止法が施行された99年以降、こうした写真集の公開は違法になった。国会図書館は2006年、この写真集を「児童ポルノに該当する恐れがある」として閲覧を禁止していた。データセットの中にはほかにも児童の裸の画像データが複数あった。
(以下記事全文はソース元にてご確認ください)
読売新聞 2024/03/21 05:00
https://www.yomiuri.co.jp/national/20240321-OYT1T50036/ 配布される生成AIは学習データ公開を義務付けるしかないな >>3
死霊のはらわた裁判で虚構の人物の尊厳にも保護が必要であるという判例が出ている 主語をずらすマスゴミの詭弁
データセットを公開してたところ(ドイツ)が問題なんであって
生成AI作ったところとは別の国・組織だし生成AIだけに使われてるデータセットでもない 学習データに児童ポルノがあることを確認した人の脳内には児童ポルノのデータがあるわけだけどこれも消去するの? >>8
なんでそんな画像学習した?
あ、ロリコンだからかwww まあこうなるのは分かってたけどもう遅いわな
児ポ画像を生成させてそれを学習元にされたモデルが出たら本来の学習元なんて闇の中だし 昔あったロリコン雑誌とか国会図書館に山ほどあるんだってな
今と違って芋臭いけど可愛い少女のくぱぁとか国会図書館うらやましい >>5
連想ゲームみたいな記事の書き方だね
データセットにロリ写真集があった
↓
その写真集は国会図書館が禁止してた >>1
どうしたいんだよwww
過去の経験から知識をつけるなら良いだろ?www つまりテイラー・スイフトの顔を真似て整形したら人権侵害の加害者になるの? 2年前から流行り始めた画像生成AIの時は、ゲーミングちんぽが真っ先にトレンド入りしてたからな
人間が作ってる以上、エロが原動力になるのは必然 そのうち昔の画質の悪いエロ動画が高画質リマスター版となって出回るんやろうな。 とにかくAIにケチ付けて規制したい奴らがいるんだろう
司法とか士業とか
AIに置き換わった方がいい職業はいくらでもある 成人の裸はニーズ無いらしいな
ロリじゃなくても儲けるにはロリとかになるみたい 児童の体を児童の体として学習させないと成人との区別つけられないし、精度を上げるための学習ってそういうことじゃないの? 著作権がどうとかいうのもあるけど始まっちゃったもんは仕方がないとしか言いようがないわな
どうしても規制したいんだろうけど >>3
学習と生成の段階で考えられないロリコン
>>22
ロリ画像みたくて擁護してるの丸わかり
規制されたらロリ画像でぬけないもんな… 税理士とかの士業はマジでAI で対応出来るし寧ろ優秀だからな
あと役所関係 ロリ画像は単純所持も違法だからな
学習データの中に入ってたら配布した人はロリ画像配布してるのと同じ 読売新聞が昨年12月、内容を調べた結果
ヒマなのかこいつら こういう風に悪用する人間の差のせいでAI技術発展が遅れる
完全な害悪 子供の肉体を弄びながら
異端尋問をしていたカトリックみたい >>31
性的興奮~とあるから判断は恣意的になりやすい 子供少なくなり過ぎて価値が高まったのか
昔は裸の子供がそこら中駆け回ってた むかし流行ったwarezやら違法画像動画を分割してアップロードして結合させるのと、やってることは変わらんな
パスワードがAIに指示する言葉になってるだけで まぁ私的利用に限るで終わらせるんじゃね
低年齢武勇伝(犯罪告白&前科持ち)になるだけだろ 実在しない絵の人権よりも
今、実際に生きている子供たちの人権を、もっと尊重しろよ AIの危険性って物理的に核兵器乗っ取られて云々じゃなくてネット上の情報が全て信用出来なくなる事だよね
文章も写真も動画も 気に入らなければ後出し違法にして、未来の発展を摘み取る
合法時代に合法的に出されたものは全て合法とするべきだ
政治家の責任を民間になすりつけるな ひらめいた
これを使ってインプレゾンビ共にXのTL上に貼るよう指示すればインプレゾンビを凍結祭りにさせられるかも そんなことより今日も日経最高値更新しそう
株持ってないクソ情弱なんてニュー速+に居ないよな?? >>3
AIが絵を生成する為の元データに
1993年発刊の実物のロリ写真集があったって話だろ >>1
質問です。どこで学習したのか、URLを教えて下さいでおじゃる。 マンガにヒステリックに
喚き散らしてた
キチガイフェミいたっけなあ AIまかせでエロ画像作らせても、中々抜ける物はでなさそうだがな
覚えたての中学生ならともかく
しかし違法な学習データまで使って生成AI作る側は何のメリットがあるのだろうか・・・
覇権なんて取れる訳もないし有名になったら犯罪者扱いされるだけなのに >>53
そういうことですね
性被害にあった児童にAIがさらに被害を与えた、みたいな話
自分の裸を拡散したわけだからね 猿やオラウータンとかの成長過程を克明に記録したデータセットがあれば、人間の赤ちゃんと大人のヌードデータからロリ画像を推測して生成できるのでは?
我が闘争を発禁にすれば、第2のヒトラーを防げるものなんかねぇ? 検索でエロ画像探してるとAI画像がバンバン引っかかるようになってウザいのなんの やってることは昔からあるアイコラと変わらん
進歩せんな >>4
学習したところで、それと同じものをコピーするのではなく
様々な要素をミックスして作る以上特定性が失われるだろう こんなん1年前には分かってただろw
誰だって元データ検索したら出てくるのに何を今更 これかなり昔のアメリカあたりでの記事だよな
結局イチャモンレベルの話でアホらしいで終わったやつ >>68
この言い訳がどこまで通じるか見ものだなw CGも実写と区別つかないレベルになっているし
AIでは判別出来ないだろうね 検討違いな生成AI擁護が笑える
昔に撮られた未成年の危ない写真があるのが問題って話でしょ >>3
お前の写真でコラ画像作られてバラ撒かれてるようなもんでも? >>70
学習時のデータを呼び出すやり方があるんだ エロが画像AI牽引してるのに変な横槍入れんなや
無法地帯でいいんだよ 細々と公開してた以上節度をもって楽しめという状態になっていたと判断せざるをえない
AI君は限度知らずに広めるからなあ… そしてこれが、少子高齢化を加速することを、専門家たちは知るよしもなかった 仮に紛れていたとしてなんの法律に触れてるの?
学習自体は合法でしょ >読売新聞が昨年12月、内容を調べた結果、
>1993年に出版された裸の少女を写した写真集の画像データが見つかった
こいつら体育系で、ロクに取材もできくせに、
こういうことだけは、キチンとやらかすのなw 幼ポだけでなく危険なものは沢山あるので出力しないようにAIを制御するしかない どうせデジタルのデもわからんバカ議員が
プチエンジェル事件のときの画像流出させちゃっただけだろ これ言い出したら、少しでも犯罪を犯したことのある法学者が関わった法律は全部間違ってるってことになってしまう
学習セットから減算する機能つけたらいいんじゃないの? >>44
ビデオやPCの創成期はエロが牽引していた
現代版がAIでエロでもおかしくない まーた非実在青少年とか言い出すのか
現実と非現実の見分けつかないアホですって顔に書いとけ ,,v‐v-/l_ (⌒)
_「/ ̄ く /
lYノノ/_ノl_ヽ))
<イ( l l )l> / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
<|)'|l、"(フノ|l < エッチなのはいけないと思います!
,(ヨリ<>o<>リ'] \______________
|ト‐!]-ム- i']l
ヽ_ノv__l/ /
. ノ[//‐─‐/_/、
( /E|, (フlヨ \
,-| El___lヨ /
└-\`^^^^^^´/ 二次元は創作物だからいいけど
三次元ならまずいですよ! >>3
実在するかどうかはAIのさじ加減しだい。
極端な話、学習した資料(写真・記述)が一つなら、そのまま使うしかないだろう。
大量にあれば、それらを複合して共通点を見つけたりして判断できるけど。 むしろAI3Dで好き放題できたら
現実の被害者はいなくなるだろうよ
男なんて性欲の塊だけど
塊を抜けば、みんな仙人だから ナニを今さら、な話だろw
どう見たって昔のその手の画像そのまんまみたいなAI画像氾濫してるじゃんww 人が頻回にチェックし、児童ポルノを削除し、もうポルノ画像全廃フィルターかけたらいいんじゃないの ■ このスレッドは過去ログ倉庫に格納されています