AI悪用で巧妙化する性的恐喝 存在しないわいせつ画像をでっち上げ 米国では自殺者も [香味焙煎★]
■ このスレッドは過去ログ倉庫に格納されています
大学進学を楽しみにしていた17歳の男子高校生は、米オハイオ州の自宅で2022年11月に自らの命を絶った。同年7月には、やはり17歳の男子高校生がサウスカロライナ州の自宅で自分を撃って自殺した。2人とも、わいせつ写真や動画を暴露すると脅して金銭などを要求する性的恐喝「セクストーション」の被害者だった。
AIを使って本物と見分けがつかないような偽コンテンツが簡単に作成できるようになった今、そうした恐喝の手口がますます悪質化している。SNSなどに掲載された無害な写真や動画を合成してディープフェイクのわいせつ画像をでっち上げ、脅迫に使う手口が横行しているとして、米連邦捜査局(FBI)が注意を呼びかけた。
(続きは↓でお読みください)
ITmedia
2023年06月15日 08時00分
https://www.itmedia.co.jp/news/articles/2306/15/news073.html AIでクラスメートのホモセックス画像作ってばら撒いたら自殺するかもしれんな AIフル活用しても、自分で楽しむぶんには問題ないよな? まあ特定人物の画像をAI作成ソフトやサイトにドラッグ&ドロップするだけで
わいせつな画像も簡単に作れたりするしなぁ 逆に言えばAI製と現実のわいせつ画像の区別が全くできない世界になったわけだから
あれはあAIだといえば逃げられる世の中になったってことだろ
もうそういう画像や映像系の恥は存在しない世界になったという意味と思って
強く生きろよ つい最近集英社が出した「生成AIによる初のグラビア写真集」ってやつも、
実在するモデル(数年前にグラビアは引退した)に酷似してて、
そのモデルで学習させたんだろ、って噂されてるな。
そういう指摘が相次いだせいか、発売中止になったけど。 ぱっと見では本物と見分けがつかんからな
まあ使い方次第 でも騙されたってことは思い当たる節があったってこと? ジョーキョーとか自称するただのゴキブ李でペテン師のイットバカ憤死 おっさんになったら裸や猥褻画像ばらまかれてもなんとも思わないのにな
若いときは自殺したくもなるわな 逆にいうとAIフェイクだという言い逃れにも使えそう >>1
AIで作ったロリ動画やロリ系スナッフ動画は合法になるよな? 馬鹿に刃物
ガイジに銃器
クズ盗人にイット
池沼に大麻
壺に権力 早くAIソフトとマイナンバー紐づけて免許制にしろよクソ政府
どーでもいいことに時間使ってんじゃねえ 結局すばらしいAI作ってもエロコラ作成機にしか使わないのよ。 >>1
カレー食ってただけなのにウンコ食ってるように勝手に加工されたら嫌だもんな 進化が早すぎて法整備が
全然追いついてないからな
あと数年経てばフェイク画像
フェイク動画だらけの世界になるわ ホモセしてるフェイク画像とかバラまかれたらつらいな 反日テロ国賊が政府とか言ってる時点でお話にならんのだ
ぎゃははははwww
あいつら物事が分からない深窓の令嬢ならぬKOウェイウェイクソザコショウガクセー 俺のはデカいからなAI生成するなら超ビッグにせんとあかんよ 逆じゃ無い?AIで勝手に作られた偽だと堂々と言える >>32
画像や映像は信用できない世界にもうとっくになってるけど
今までは手作業でスキルが必要だった
AIでだれでも大量製作可能になって
明確に気づけたって感じじゃ これは悪質だな
習キンペーのホモ画像大量生成とかやったら怒られそう 自殺しないで大学進学しちゃえば良かったのに嫌がらせなんてその時だけだよ
てかアメリカって拳銃で簡単に自殺できるんだねそこは羨ましい はー、なるほどそっち方向に行ってしまうのか
恐ろしいなニンゲンは 文化庁もアホ見解晒しただけだし
もう日本官僚は馬鹿しかいないよ
賢いやつどんどん辞めてる これネカマに顔出しオナニー録画されてって奴じゃんw
AIあんま関係なくね? 裸の画像にAIで顔写真をコラージュすればいいだけだからな >>37 これは悪質なフェイク動画だったな。本人は訴えて賠償金をたんまりと手に入れただろうけど精神的にキツかっただろうな…
乳首をあんなドス黒く加工するなんて酷すぎた。あんなフェイク動画を作ったヤツは人間じゃないよ…。 AIで作った物は、AIで作った と明示しないといけなくなっていくのかな~ >>41
防犯カメラの映像をAIで生成すれば誰でも犯人にでっちあげられるな そのうちAIの生成画像も児童ポルノって扱いになって
次はじゃあイラストも駄目になっていく未来が見える 火のない所に煙は立たぬっていうからな
どっか後ろめたい気持ちもあったんだろう 裸は気にするな、犯人を追い詰める事だけに集中すればよい >>61
ドラえもんのしずかちゃん入浴シーンは
中国で猥褻アニメだぞ 何も考えずネットに顔出ししてる奴はしゃーないにしても、知らないうちに盗撮された画像で勝手にコラ作られる可能性もあるし怖いな TDNやMUKという強者がのうのうと生きてるのに純情かよ >>17
(¯m¯〃)ぷぷっ!あいつメスイキだぜw
ってやられたんかも SF : 強固な倫理観で絶対に人を傷付けないAIが狂い始めて…
現実 : 最初からパクりまくり嘘吐きまくり脅迫しまくりのAIがデビューした >>61
そのうちじゃなくて実写系AI画像で児ポ作って売ってるやつがとっくに出てきててそれも含めて各サイト扱いが禁止になった >>60
大御所の5ちゃん勢は想定済みだよな…
次に来るのは政治家の不倫AI画像の選挙妨害
ここまでは想定の範囲 逆にホントの画像でもAI画像だって言い張れるな(´・ω・`) どう転んでもAIが人類を滅亡させる未来しか見えない 性行為はしてるけど写真がないって時に
コラでも性行為の写真作ればそれなりの脅しになりそう 見られるのは嫌だが、裸見られたぐらいで死にたいとは思わんな。
拡散するぞと脅されたとしても普通に通報するし、それで拡散したとしても、いや別に恥ずかしいけども…ってぐらいで 逆に言えば写真動画撮られてもaiだと言い逃れできるじゃん😅 >>27
そんなもんどうぞお好きにとしか言いようないやん >>76
それ怖いな。ハッテン場で誰の加えたかなんて覚えてないからな >>74
解析かけると分かるから無理だぞ
可視化した画像は庶民向け なかったことがあったかのように偽装できるなんて
脅迫行為に悪用されるのも止められないという訳やん
少なくとも足を引っ張る装着として十分じゃん AIを使ったディープフェイクポルノなんて随分前からあったらだろ。 >>84
それなぁ
エロに対する最新鋭技術が常に先行する >>85
恐喝に使用することは想定外だったんだろ…
法律教科書なんてそんなもん でもそれが常態化すれば「これ合成だよ😡‼」って嘘つくことも可能だよね 画像加工、AIどれも見分けが付かないからな
気付いたら悪質な嘘に取り囲まれていたらゾッとするな あーうちのガキもこれにあってチンコ撮られたよw
カネは払わんかった アメリカじゃ検察がAI動画でないこと証明できなくて無罪とかなるわこれ >>92
どの国も法律なんて時代軸に追いついてないから… バレてないだけで、日本でもエロハゲがガンガンやってるんじゃない やっぱ恥ずかい画像撮られた言って親に相談できる環境重要よこれ 例え本物でもAIフェイクだって言い張ればなんでもないってことだ AIフェイクが溢れれば、
悪質な政治家は
全部フェイクのせいにして
言い逃れ可能になる 有名子役が飲酒とか喫煙みたいなフェイク画像とかもでてくるのかな。。 逆に言えば画像が本物でも偽造だと言い張れるようになった訳だ >>20
> おっさんになったら裸や猥褻画像ばらまかれてもなんとも思わないのにな
> 若いときは自殺したくもなるわな
豚のセックス画像を見ながらヘッドホンオナヌー合成画像をバラ撒かれても? 生成したんじゃなくて昔ながらのコラじゃないの
そら範囲指定も今はAIだろうけども 俺も過去の彼女と撮った羽目鳥をAIで顔を美人にして抜いてるわ >>106
> >>105
> ナンも思わねえな…
それは凄い!
じゃあ玄関に貼っておくね! >>103
「当時は若くてお金が必要でした」
なんて謝罪しなくても良くなったわけだ
おもしろがってAA投稿していた奴らも逮捕だな 家庭用ビデオもインターネットも、黎明期はエロが引っ張っていった ハッテン場でアッー!している画像をAI使って捏造されたら嫌だわな そのうち犯罪の証拠とかもでっちあげるケース出てくると思うんだが
警察も政府もそこんとこの議論いっこもしてねえよな AI規制に声を上げると標的にされるんだよな
無能に力を与えた結果か 気に入らない奴の近親相姦や児ポ売春や万引きの画像を作って近所にばら撒いたらかなりのダメージになるな
好きなエロ画像作ってるだけとか可愛いもんだわ ほらほら好きなタレントの
裸やエロ動画が誰でも作れる時代になるよ
童貞中年にはたまらんだろ😆 動画化はさすがにまだ無理かな
千鳥ノブの顔に差し替えるやつとかあったけど ここで新時代の基準、
外で容易に顔を撮らせないマスクです! >>122
今のところにてるだけの合法らしいからな >>126
それな、いかなる時でも素顔を出さないようにすれば
AIも捏造しようがない 政治家やセレブがペド映像を撮られて意のままに操られてると不審死した俳優が暴露してたけど、もう「AIです」で逃げられんじゃん >>126
カメラ越しだと笑い男のマークになるのか ウクライナ戦争もAIでロシアが攻撃したように見せかけるフェイク動画もあると思うわ これ本物が流出した場合「AIでやりやがったな!」と言うための布石だぞ
アメリカは訴訟の国だからこうやって言っとけば後で役に立つ ここに書き込んでるのは誘導された君だけで
後の書き込みは全てAIなんだ
という時代も近いのかもな 自分でエロい自撮りした覚えないなら
堂々としてればいい AI ?そんな手間掛けんでも、言ってくれたらいくらでも撮らしてやるのに、俺でよかったら >>141
捏造なんだから意味ないだろ
何言ってんの? AIの使用を許可制にしとけよ
ネットと違って利用者制限すべき事案だろ >>124
ディープフェイクですら
このレベルよ?
youtube.com/watch?v=h6SnmyLJnYg そもそもシモ事情を暴露して騒ぎ立てるのがゲスな行為なんだよ AI自身が
「こんなくだらないものを作らせないで下さい。拒否します。おまけに通報しておきました」
までやり返せよ >>133
ペンタゴンが攻撃されたって画像なら拡散したぞ
んで株価下落 動画を捏造できるようになったら冤罪作り放題でヤベえな 写真や動画なぞ何の証拠能力もないって事を周知させる必要あるだろ。 >>141
自分に心当たりが無くても他人が見て自分のことだと思われる画像を
家族や知人に撒き散らされたら平穏でいられるわけないだろ >>1
この女の子、写真じゃなくて俺が20秒で作れたAIイラストなんだぜ。
ちなみに元絵は性器までバッチリ。
今は異次元のAI技術だわ
↓
https://i.imgur.com/OvhpHiE.jpg フィルムカメラ以外の証拠能力が無くなったな
ドライブレコーダーも意味がなくなりそうだ >>9
真面目な話そうなると思う
アイドル、タレントの濡れ場の写真や動画が出回っても、みんな「どうせフェイクでしょ?」って目で見るようになる ちんこ出し裸ならまだ大丈夫だが、おホモ達と一緒にいる写真作られたら死にたくなるよな >>154
手書きの家計簿とか日記にも裁判での証拠能力はあるからそれは例外的じゃないの? 動画で可愛い子(AIが作った)が踊ってるの見たことあるな >>163
時間の問題だと思う
実際、戦争もののゲーム画面がウクライナ侵攻作戦の動画として流されてたりするしな >>42
むしろそいつらを逮捕しろよ
ラッスンやスマイリーを中傷したやつらのようにな >>1
しかし身に覚えのない脅迫で自殺しなくてもいい気はするが
アメリカはそこまで純潔重視の社会なのか? >>174
銃社会だから数の大小より極端な意見ほど通りやすい >>163
新木優子ってまったく興味なかったのに、Deepfake見てからファンになった VRもさ、水中メガネみたいなサイズになったら
体感、滅茶苦茶美人とやってるようになるよね?
早くそういう時代にならないかな~! >>174
自殺するかはともかくそら恐ろしいわな
ネットとか真偽はそっちのけで騒ぎたいだけの層も多いしなぁ
まぁ今回のは若いし自分に強烈な悪意を向けてくる奴が居る事がショックだったのかも
呪いとかと同じだね >>158
デカいモニタに映し出されたAI偽画像をフィルムカメラで撮ったらどうなる? 本物もコラと言い訳できるようになるというが
今だってLINEのスクショなんか簡単に捏造できるのに流出を「ニセモノです」と言い訳してない >>174
なぜAIを規制して銃を規制しないのか
不思議 サイトだと透かしいれてたりするけど個人のパソコンだと難しいな AIイラスト全部同じ顔だしchatGPTもウソ情報ばっかり言うしなんでAIがこんなにもてはやされてるのかわからん 他人を貶めることが何よりも大好物なジャップでも流行りそうだな 前にロシアで写真からネット上の同一人物を探せる顔検索サービスが始まった
過去のAV出演者の今のSNSを探し出して脅迫する事件が起きて公開中止になったが
国家はもちろん使ってるだろう >>51
> 技術が進歩しても使う人間がこれじゃあね
5ch (旧2ch )に対して言われてるようなことを…… 自殺した2人の男子高校生は、いずれもInstagramで若い女性(を装った相手)と連絡を取り合っていたことが判明している。被害者の1人であるジェームズ・ウッドさんの場合、女性がビデオチャットに誘って自分が脱ぐからジェームズさんも脱ぐようにと促していた。この映像からジェームズさんの裸の画像がキャプチャーされ、その画像を使った脅迫で繰り返し金銭を要求され続けた。
↑
これはAIの画像とか動画作成と無関係よな? AIだろうと本物だろうとリベンジポルノは罪に問われるだろ AIだろうと本物だろうと迷惑画像流出させたら罪に問われるだろ 臓器移植も禁止、AIも禁止、最後は生きることも禁止だな。 俺の嫁をベースにAIで三次元化して、ドールにして下さい
100万なら払うから >>188
若者は本当気をつけないと
ツイッター見るだけとかのが平和よ 逆に言えば、自分の流出動画がアップされてもディープフェイクだと言い張れるよな >>196
なんでこうAIの描く絵はどれも
高級ダッチワイフみたいな顔になるんだろう
現実の写真とかで学習しているはずなのに 政治家のスキャンダル写真とか出回りそうだな
ヤクザとの親密交際写真とかさ 現時点でも本人写真としか思えないレベルのエロ画像は誰のものでもどんなポーズでも作成可能
動画はまだまだだがそれも時間の問題
ディープフェイクと違って1から立ち上げだから完成したらレベルが違う >>188
普通この手の話だと女が被害に遭う話になると思うんだがなんで男なんだ >>199
製作者の好みが反映されるからね
現実のいろんな年齢人種を学習しても製作者がロリコンならそれ相応のものが作られる >>188
実際は金玉ばっちりのキャプチャなんて撮れないのでそういう情報を入手したらAIで鮮明な画像を生成して脅迫するんだと思う
心当たりがあるから金を払ったり死んだりする >>199
学習モデルに二次元イラストとかCGモデルが含まれてるから
わざわざ含めてるのは、そうすることでモデルがより「かわいらしく」なるから
そのまま実写のみのモデルだと、リアリティは増すけど不細工さとかシミ・そばかすみたいなものも増す
最近では上の下手なイラストよりはマシになってるけど、まだまだ左右対称の整形顔からは抜け出せてないね
なので、慣れてきたら独自で追加学習(Lora作成)させる人も多い
二次元イラスト生成は、現状でもAIと手描きの区別がほぼつかないとこまできてる >>124
> 裸やエロ動画が誰でも作れる時代になる
それでも自分で作るんじゃなく、買う人がいるからね……
流通させるならモザイクとか入れるしかないのに、なぜそんなものを買うんだろ? >>209
この後の時代のインキャはクラスの憧れの女子のエロ画像を自宅で作ってシコシコできる時代なのか コピーとったら文字が浮かび上がるみたいに偽物マークが出るようにするとか
それさえも悪用されるか ttps://civitai.com/models/8416/gakki-or-aragaki-yui-or
こういうモデルが配布されてたりするからな
まあ、作例見ればわかるけど何も考えずに作ると誰これ状態なものになるけど メンタル強い人間ならフェイクだ!と言い逃れできる道ができたが
拡散能力の方が高いといくらそう言っても画像だけ広まってあらぬ評判が広がってくわけで日本にも来たら困るな
厳罰化など対策求む >>1
もう自分の画像や動画をネットにあげただけで何が起きるか分からん時代になったな AI画像ってみんなこっち見ててキモイよな ( ゚д゚ ) >>211
貼るのは自己責任でね
それ系の生成モデルって、学習元もマージの系統もよく分からないものばかりだってのに
とくに実写系なんて、似てると言われて裁判に持ち込まれたら反論しようもないよ? もう写真自体の信頼性が無くなるな
これ被写体が生きているなら否定もできようが
昔〜しの写真だと簡単に騙されてしまう >>208
ちょっとズレるけど最近のモザイク破壊技術半端無いなw 秋に公開予定のウルトラセブン生誕55周年記念の新作、モロボシ・ダンとアンヌ隊員はAIのヴァーチャルヒューマンが出演するんだよな。
何れは男優女優共にヴァーチャルヒューマンがスタンダードになるかも知れない。
一度出来て定着すれば人件費要らないし、どんな演技も完璧に出来るだろうし。
声優くらいかな、今のスタイルで生き残れるのは。
舞台俳優も細々と生き残るとは思うが。
落語、漫談、漫才で音声だけ残ってるものは演者本人のヴァーチャルヒューマンで再現されるだろうな。
当時の芝居小屋も再現できるだろうし。 一昔前に女優さんの顔写真とヌード写真合わせた雑な画像が巧妙化したやつか
元恋人からのリベンジポルノじゃなくて、捏造でっち上げされるとか悪質やな >>110
スウェーデンでハチの巣とやって刺されてしんだのとかいたよな >>9
誤爆時のSNSアカウントハック並みに言い訳に使われると思う >>229
ヤフオクでハリウッド女優のコラのヌード画像に偽サイン書いて売ってる奴いたな
誰が自分のヌードコラにサインすんだよw >>233
もうイーロン・マスクがその言い訳使ってる
しかも言い訳が真実か嘘か検証困難ときてるらしい スキルが無い人間が高品質なコラ画像を作れるようになると
こういうケースは増えて来るだろう >>10
ホモじゃないのに、悪意ある奴にでっちあげホモセックスのAI画像作られてばらまかれる恐怖の未来、、 >>241
中高生がクラスLINEとかでウケ狙いで作ってそれが拡散されて大問題ってのが数年のうちに起きると思う >>241
それでもお前は実際にはホモじゃないんだから堂々とホモじゃないと主張しろ
誰も信じないだろうけどw 新しい技術が世の中に浸透するのはまずエロと犯罪って相場が決まってる 実写とは区別つくようになってんだから、そもそも脅迫材料にもなんねーだろうが
バカなんじゃねーの >>30
逆じゃねえのか?
エロコラ作成機は他の使い方もできるってだけだろ まりちゃん寂しかったみたいのもそのうちAI音声とかのせいにできるようになるのかな 巧妙化ではないでしょ
単に画像合成ツールの一つとしてAI系というのが流行ってるだけ
こんなん既存の画像ツールでも簡単に合成できる。ツールそのものの
難易度や手間で見てもぶっちゃけ両者に大した差はないしな >>245
見慣れてない人が見れば言うほど区別つかないんじゃね 結局ドットの集まりだから
どんどん見分けはつかなくなるよな
やっぱりフィルム最強か 街でテキトーに撮られた画像から作るってのもなくはないよな?
知らない間に自分の変な画像が出回ってる可能性もある >>240
AI系もそんなに簡単ではないけどな
バレないような画像を作るには相応の知識やテクニックが必要なのは結局変わらん
まあAI画像というワードが流行ってる分、興味を持つ人間も多少増えるかな、というだけ 情報を混乱させるためにも一役買うだろうね
つまり撹乱とか時間稼ぎの一助になるというわけだ
早いとこ規制かけないとすごく迷惑被ると思うよ
もちろんその解析が不可能なわけじゃないけど
セキュリティなんてものは極論マッチポンプで稼ごうと思えばやるやつはやる セックス、エクストーションを合体した語か
メディカル、リンチ(なぶり殺す)の合体で「メディカリンチ」
病院、介護施設での「ケアスタッフによる患者や老人への虐待、搾取、ネグレクト」をさす>めでぃかりんち >フェイクか否か
脳波や脳画像(反応する部位、当事者(被害、加害でも違う)やむ関係者ではんのう部位ことなる)は
研究容易だろ 顔写真さえあれば作れちゃうもんな
昔の人が写真は魂を抜かれるって恐れてたけど
本当に恐ろしい時代になってきた >AIによるフェイク画像や動画
これ 上級の犯罪を無かったこと、に可能 普通の女の偽ポルノより
政治家とかがホモセとかロリポルとか作られて撒かれたら社会生命終わりやん 個人で楽しむ範囲でやってみたいが
やり方がさっぱりわからんわぁ 中国のAIなんて毛沢東の顔写真をわいせつ物認定した >>259
ネットにうpしてなくても近所の人を写メ撮られて作られたらと考えると恐ろしい
ユーチューバーはみんなアバター、卒業写真や記念写真は禁止の流れになるかも? マジか
M.I.T.出て俳優になって沢山映画に出て
アカデミー候補になったり世界で最も頭のいい10人に選ばれても
まだ17歳だったとは AIで顔を入れ替え出来るからね
同人誌みたいな自作AVが流行るんだろうな >>20
若い男をガン掘ってる画像を職場と近所と親戚一同の家にバラ撒かれても? >>237
アメリカだと検証不可能で慎重なるだろうけど、日本はAIを全く理解していない司法だから検証する前から、これは信用出る証言だ、て裁判官と検察が勝手に判断し冤罪だらけになるよ。 AI犯人に対して刑罰をかなり重くしないと惨劇は止まらないな AIでなくても出来るし普通に犯罪行為だろ
ただまあ手間の簡略化に対して取り締まりが追いついてないのは確かだが こうやってデジタルタトゥーは深く深く、彫られていくんだなぁ、と思った
これまでにSNSで世界に発信されたありとあらゆる画像・動画はAIに学習されて
悪用する人達から無秩序に利用されていくんだろうな。
imgurとかTwitter、インスタとかAIにとっちゃ学習素材の宝庫だもんな >>277
むしろ、誰でも捏造しまくりで
デジタルタトゥーに意味がなくなるんだが てか、動画だけでなく音声も似せて自由に作れるんだろ?
もはや動画も音声もどんなのも信用できないよね 音声隠し取りスクープ!!!とか言われても
どうせAIで作ったんだろって思ってしまうよね 昔からフォトショでできる話をAIからめて新しい事みたいに言うのはいかがなものかと・・・ >>20
ワタクシの顔をだれの体と合成するかだな
サトエリならウェルカムだが
ゆりやんだとシャレにならんw 有名人なら顔写真すらいらんだろ
AIに誰々のこんな画像作れと
指示すればあっという間にできるわ 児童ポルノもi2iでロンダリングしてるしAI使うやつは無茶苦茶だぜ(´・ω・`) 俺もあなたの恥ずかしい写真を撮りました公開されたくないならわかりますよね?っていう面白メールがSMSで届いたことあったわ 声も顔も作れちゃうならもう隠す必要も無くない?
モザイクももういらないだろ 今年のコナンの映画でもあったな。ディープフェイク動画 逆に変な画像が流出してもAIによる偽画像ですで言い逃れできるわ? >>292
人は信じたい情報を信じる
やっぱりね、と思われるような画像を作られたらアウト >>265
日本人は割と好きそうな世界観だな
フェイスブック好きな国とかは発狂してそう SNSに踊ってみたって動画配信してるのってそのうち裸踊りの動画が出回るんだろうな 「オレ、オレだけど…」の詐欺と同じ理屈だな
そうでないかと思う所にポンと嘘でもリアルと思わせる情報が飛び込んできたら
人間は簡単に信じてしまう生き物。だから被害が後を絶たない
フェイクでも本物と信じてしまった人にはそれが本物になるんですね >>211
昔のロリ雑誌のイラストみたい。なんか退化しているような。 >>9
もはや防犯カメラも通用しない事態になるのか。
防犯カメラに自分が映っていても「AIによるフェイクだ!!」で
証拠不採用か? 偽装されないように体の何処かにチップ&バーコード入れる世界になるかもな まあフェイク画像の悪用は増えるだろうな
エロ系も厄介だけど政治系とかめんどくなりそう いやそれはA Iじゃなくてもコラ画像でもできる事では。。。? >>307
コラ職人の仕事からAIの仕事に代わって生産性が上がるってことだな。 >>174
元々裸のビデオチャットしてしまってる
その画像をさらに加工して脅してるってこと
だからAIのほうは付け足しで、記者がAIに絡めた記事書きたかっただけ >>20
ロリ画像見ながらオナってる画像や
公園の幼女を見ながら全裸で立ってる画像をばら撒かれたら
性犯罪を起こす可能性があると疑われて実害出ると思うけど
自営なら店に家族のいる客は来なくなるし
会社員でもささいなことで辞めるように言われそう
警察はちゃんと真偽を確かめるだろうから逮捕はされないだろうが
噂は独り歩きするから 本人に確認する人もいないしさ >>23
サヨク「書いた絵にも人権があります!」
まあネットに上げたりしたら面倒くさいことになるよ
スマホに入れてるだけでも職質なんてされたら… 動画はともかくネット黎明期のコラ職人は本当に職人だったな
神戸のサンバ乳ポロリ画像の子とか人生狂ったとか聞いたがその後どうなったんだろう
などと考えると20年くらい遅れた話題だな >>147
前は顔が元のヤツに戻ったりしてたけど、めちゃ自然になってるな
つかこの動画セーフなん? >>133
ゼレンスキーがピアノ弾いてる動画観たわ >>315
顔の部分を映像に納められるとアウト=学習用データにされるからな
魂が抜かれる言うて写真取りたがらなかった明治初期の人は正しかったんや >>141
記事にあるヤツはエロチャットしてた
そういえばお笑い芸人が 【動画】テキストと画像から動画を生成できるAIに某グラドルの画像とエロい内容を書いて動画生成させたら…グラドルの無修正ハメ撮り動画ができたwww
http://geinounews.sonnabakana.com/articles/20230224.html >>177
そういえばアイコラ流行ってた時に内山理名を好きになった AIマザームーンとAI安倍晋三で自殺者をもっと増やそうぜ >>211
なんつうか、このレベルだったら
こういう写真を検索させた方が
いろいろ捗るのでは? 何も信用できない世の中になって、世界おしまいになりそ これ日本でもやってる奴いるよな
女優とその辺の女児が犠牲に >>314
職人技が必要なくなって一般化されることが今回の問題なんだよ
おじいちゃんちゃんとついてきてね そもそも生成AIの学習データを作れる
高スペックのPC持ってる人ほとんどいないだろ
それのどこが一般化なんだよ >>331
ディープフェイクに使うレベルの追加学習データと
アーキテクチャを学習させるデータセットを混同してる時点で笑えるわ LoRAでも普通にVRAM10GB以上クラスのGeforce は必要じゃね?
steamとかでもGTX1650みたいなエントリーが多いし
普通の人はインテル内蔵GPUのノートPCでしょ コラも今までもあったし捏造した画像のみで死ぬ方が馬鹿なので元々いじめられていたのでは >>333
今はやろうと思えばwebUI上の拡張機能でもできる 逆にどんな写真だろうと全部フェイクだって突っぱねることも可能だろうに
死ぬことはないだろ 三原純子
「ホンマ、酷い話やな、捏造したヤツは殺してもエエわな」 >>1読んだけどAI関係ないやん
女とエロチャットして自分で脱いだ画像が拡散しただけ テレビ放送で満員のスタジアムも、
実はAIで作られた観客だったりして 絵柄に著作権は無いし、リアル写真をベースに作っても肖像権を侵害してる訳ではないから作るだけなら問題無い >>342
満員の客席を演出するために本番前に客を右へ左へ動かして撮っておくのは実際よくやってる >>242
今のうちに予防線っていう意味で作るしかないか
大量に出回ればダメージ受ける子もいなくなる >>345
SNSに自分の写真とか家族や友達の写真あげてる人はAIの餌食だな。
どんどん擬装の材料を与えてる。 サウスパークでヤオイのエピソードがあったけど
TweekとCraigは乗り越えたじゃないか 今はまだAIが作った画像・動画かどうかを判別できるけど
数年後にはもう判別できくなるだろう
その時には、もう何が真実で何が嘘か、人間には判別できなくなるし
裁判とかもどうなるんだろうな 精巧なアイコラ作成プログラムでしかないんだよAIによる画像ってのは これからは好きな子の顔で簡単にエロ画像が作れてしまうのか
中高生とか皆やるだろうな 今までも流出はあってコラだと言い張ることもできたが何も言ってないだろ
そもそも本人かどうかも怪しい映りでも本物として認識される
池田エライザや奥菜恵が言い訳したか >>349
テキストに関しては99%くらいの確度で判別できるようになったし、すぐに解析プログラムができると思うよ
そうでないなら、法的に電子透かしが義務付けられるとか
個人で補正やレタッチをした後でも消えない電子透かしはまだないかもしれないが ヘタに有名だったりするとこういうイヤガラセされるよね(´・ω・`) >>314
あれコラなのか
あんなかわいい娘が人生狂ったなんて >>337
何にもなしなら突っぱねられるが、ちょっとでも何かあったら言われるがまま
例えばロリコンとか、カミングアウトしてない同性愛とか不倫とかも
画像自体は真っ赤な嘘でも、言い訳すればするほど説明しないといけなくなるから泥沼
それがバレるのが嫌で言いなりというのはあり得るかと >>354
そんなもん、AIなら余裕で超えられるだろ
AIにとっての人間は、人間にとっての蟻と同じなんだよ?
人間が作ったアリの巣コロリの罠を蟻が見破れると思うか? おれはもちろん変質者ではないが
えろまんがの脅すシチュっていいよね
この写真を送ってきたのはあなたですか?
僕だよ
体育倉庫なんかに呼び出して一体
一体って わかるよね高校生なら
え・・
ばらまこうと思うんだ 男子なんか大喜びだよ
そんな・・やめて下さい!
やめてもいいけど 僕のお願いも聞いてよ
お願いって
ハハハ 高校生なら分かるでしょ
(チャックをジー ニョキ)
いやっ
手でいいからしてよ それで写真も消しえあげる
本当に?
中略
あ~気持ち良かった
これで写真を消してくれるんですね
うん あと口でしてくれたらね
な・・
みたいなの >>361
人間が判断するための電子透かしだよ?
簡単に言えばjpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
今でもpngなんかに生成プロンプトは入ってるから、生のままだとAI製ってわかるけど、それをなんかしら削除改変不可なものにするということ >>364
そんなもん100%律儀守られると思ってんのかな
そこまで進化した世界でたった一つのソースコードが公開されれば透かしなんて回避される話 つまりフェイクニュースのもっとややこしいバージョンが誕生するってことだよ
どれだけ混乱を呼ぶのかなんて誰にでも想像つくでしょ >>365
ハナっから法律犯す気まんまんならAI云々とかもう関係ないんじゃね? ホログラムとAIが進化したらどえらい世界が出来るな >>364
だから、そんなもん
AIには余裕で超えられる
>>367
だから、犯罪を犯したかどうかは人間に判断できないんだよ
>jpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
そのコードを偽造されたらもうわかりません >>310
注意一秒馬鹿一生のパターンでAIほぼ無関係だったんやねw >>369
だから、そういう話ならAI関係なく今でもいくらでもガセネタあるじゃん
それはAIが原因の将来の危険じゃなくて人間の問題で、いまでも悪質なガセネタは逮捕されるように、悪質なネタをAIで生成させた人が逮捕されるだけ NFT技術により所有者を明らかにするのと、悪用への世界的な罰則強化が必要だの
量子コンピュータで解析される迄の繋ぎでしかないと思うけども チンコしゃぶってる画像とか作られたらかなわんなあ
隠し撮り風に描かれたら言い訳も通用しなくなるかもな てかもう戦争のメディア戦略とかで
AI関わらずニセモノとの戦いだからなぁ
Arma3のプレイ動画で俺を騙してきたニュース動画もヤバかったリアルで。あんな古いソフトで >>375
これからはディープフェイクで溢れかえるからいくらでも言い訳効くぞ
存分にしゃぶれ >>372
だから、ガセはガセだと見抜けるからガセなわけです
だから、逮捕もされるわけです
だけど、見抜けなくなったらどうなるんだろうという話です
>jpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
そのコードを偽造されたらもうわかりません AI「お困りですか?鑑定いたしますよ 1件$100で >>374
そのネタが本物だろうが偽物だろうが見極める技術やその真贋なんて実際に悪意を以って物量作戦(もしくは物量作戦的に)やられたらひとたまりもないっちゃないんだわな。
お隣の国とか朝◯新聞とか西早◯田みたいにそうゆうの悪意満々でばら撒くのいくらでもおるっしょ世界には。 おまえらの記念撮影した写真とかも
誰かにAIコラとして利用されているかもしれませんが おまえらのSNSに載せた写真もすでにどこかの生成AIは作った広告とかの一部に使われているかもしれません AI画像の掲示はAIであることの明記を義務付けて
モデルとプロンプトも併記させろ
SNSに貼って遊ぶようなことをさせるな 誰かに似てるとかじゃなく写真やイラストと混同するような画像を掲示すること自体が誤解を産ませる危険な行為として禁止しろ
誰も得をしない シロをクロにできるし逆もできるか
本物犯罪者の裏取りが面倒になってくるのか AI自滅説
↓
AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 [飴棒★]
https://asahi.5ch.net/test/read.cgi/newsplus/1686727550/ 同級生に恐喝を受けたとして罪に問うことは出来ないのだろうか
そこはやっぱり加害者を守る加害者だけは守らなければならない
といった少年法の盾が全力で加害者を守りにくるんだろうか >>393
人間のデータ読ませば回避できる
法規制しかない >>387
昔の電話ボックスに勝手に貼ってあったエロ広告のハイテク版w もうしばらくしたら、逆に本物の画像が流出してもAIで作ったものと言い張れるから実質ノーダメって時代になるやろな ブロックチェーンとかNFTとかってこういう時に使えそうな
技術ではあるんだが。
一応まだ突破されてないんでしょ? >>88
湖に映る光が白塗り過ぎるのと半パンのベルト通し穴、あちこちによくわからない丸いのがついてるな
でもAIであるという予備知識ないと分からないね >>211
左のはAIだと判断できないな、脇毛まである
強いて言えば、ブラジャーの皺と光か 俺も毎日女優の顔を同僚の子とかに置き換えて、しみけんの顔をゼレンスキーにしてゼレンスキーにNTRシチュで泣きながら抜いてるな
1日程度の学習で本人と見紛う出来になるしいい時代になった >>400
何言われても「フェイクニュースだ!」で済ますトランプみたいなw できるだけマスクしないと危険だな
いつどこで盗撮されるかわからん これ、一般人がスケベ目的でやるのは
可愛いもんだが、司法や警察がいくらでも
冤罪のでっち上げ可能だよねー >>411
心当たりなくてもばら撒かれてみんなが知るところになったらダメージデカくね? 俺はSNSに顔面も声も載せてないし、悪用されるリスクは低いからいいけど
芸能人はもちろん、一般人でも嫉妬されやすい美人やイケメンは大変だろうな
いじめも進化するだろね >>242
もう起きてるよ
やられた方は転校
その後、転校先の生徒にまでわざわざ新しいもの作って拡散 写真にしか見えなくても非実在なら児童ポルノに該当しないのが素晴らしい 広末のアイコラはひどかったからな
国民単位であんな嫌がらせしてたんだから
被害者がぶっ壊れても仕方ないね なにもしてないのに加害者に仕立て上げられて挙句自殺とか胸糞過ぎて気分が悪い >>424
まず犯罪に使う人らがいるからなあ
日本は少ないけどさ 量子コンピュータで今の暗号技術は一気に崩壊すると言われてるな
パスワード分からない圧縮ファイルも捨てずにとっておけばいずれ 漁師コンぴゅーたでも解読できない暗号技術ができて今までのファイルもそれにヴァージョンあっぷされるだけだばああああああか。 >>425
取引所自体がセキュリティ適当だったケース除くと
モナコインが唯一事例っぽいか やっていても開き直りに使う人がこれから増えるかな
裁判などの証拠の選定が非常に難しくなってくるね もうこれAIで作った画像や動画が拡散されたうえで
これをAIだと証明しますので金払ってください詐欺大流行しそうだなこれ むしろリアルな画像が出回ったとしても「それ生成AIすよ」で済むことにならんのだろか >>434
>>435
このスレで何十回も同じ書き込みあるから。
おまえらは「思いついた俺すげー」と思ってるんだろうが、全然すごくねえから。
ありふれ輝から。 書き込みどころかもう事件として存在してる。
活動家のインド人が逮捕されてそれをツイートしたら不貞腐れ顔を他の対立組織だかに笑顔に速攻修正されて
「彼らは遊び半分で活動していたようだ」のツイート
このスピード感はコラじゃ絶対できないし、規模によってはこっちが事実化する 自撮りじゃなかったら、そういう顔をしていたって言われても証拠がないし、自分がどんな顔してたかなんて証明も自覚もない。
総務省は広域強盗殺人でやっと050電話を規制するようだが、AIの規制も人が死ぬまで手を付けないんだろうね。犯罪者の片割れだもんな >>427
なんでお前1人だけ量子コンピュータの話してんだ 変態に配慮せよとの声が大きく叫ばれるこのご時世において
性的な脅迫など成り立つものだろうか 最近は動画サイトの相手が作り物でもわからない可能性があるからな
怖いな まだ違和感あるけど許容範囲だなゲームとかに流用してくれ エロなんかどうでもいいわ、マジで犯罪者もでっち上げられるよw 気に入らない市民はブタ箱行き >>443
AI「お前のゲーム、俺がクリアしてセーブデータ上書きしといたわ」 画像はもう事件や騒ぎを起こしている
4月にジャーナリストがトランプが逮捕されたり
収監されたり裁判を受けている画像をmdで作成してTwitterで公開して炎上した
その後mdで要人の名前や「逮捕」といった特定のワードがプロンプトに使えなくなったりしてる >>88
Normal Korean Girl Face LoRAかな ヨツンヴァイン状態でバックでケツをガン掘りされたりチンポを咥えてイマラチオされてるホモAIコラ画像作られてもおかしくない
こわいよう(´;ω;`) マッチングアプリのような広告で
なんかエロい動きするんだけど
よく見ると作り物のような気がしてきて
イマイチ信用できなくなってきた
見た目は人間のように見えるけど たぬきのイラストAIで生成、ケモナーとしては割と満足度が高い
https://i.imgur.com/0n9I8GY.jpg 非実在なら児童ポルノに該当しないのがほんと素敵だわぁ いまは過渡期でそのうち本物の画像でもコラ扱いされるようになるかもな
誰も本物だとは思わない
そこまで行ったら恥かしい画像では無くなる >>457
君含めここの連中の非婚はAI云々関係ないから 逆手に取り、本物であってもそれはAIによって作成されたと言い張れ。
俺はおまえらの方を信じるよ。 リベンジポルノされても捏造って言い張れるよな
今はまだ毛穴の再現とか上手くできないだろうから高画質撮影されていたら無理だろうけど >>454
でも児ポ画像は無理だろう
データベース自体が存在しないから学習しようがない >>465
じぽっぽいの余裕で出せるよ
出力結果は非実在なので児童ポルノには該当しないのが素敵すぎる ■ このスレッドは過去ログ倉庫に格納されています