Microsoft、検索しても出てこない画像を代わりにAIで生成する技術を「Bing」に実装 [香味焙煎★]
■ このスレッドは過去ログ倉庫に格納されています
米Microsoftは10月12日(現地時間)、「Image Creator from Microsoft Bing」を発表した。ネットで画像を検索してもピッタリしたものが見つからないとき、「Bing」が代わりにそれを作成してくれる。
「Image Creator」には「Microsoft Designer」と同様、OpenAIの画像生成AI「DALL-E 2」が組み込まれており、自然言語で付けたタイトルに応じて、ネットには転がっていない画像をいくつか生成してくれる。
AIによる自動生成と聞くと懸念されるのが露骨な性的・暴力的コンテンツが意図せず作成されないかという点だが、同社によるとデータセットからそうしたものを削除している上、コンテンツポリシーに違反する画像の生成を抑制するフィルターを設けることで対策を行っているとのこと。
敏感なトピックに関してはクエリブロッキングを追加するなどの技術を統合したほか、学習データに埋め込まれたバイアスを表面化させるプロンプト(指示)に対する対策にも取り組んでいるという。
とはいえ、当初はトラブルも予期されるので、「Image Creator」の展開は慎重に行われるようだ。まずは一部の地域で限定プレビューを行い、フィードバックを集めながら、学習とエクスペリエンスの改善に努めるとしている。
Impress
2022年10月13日 14:43
https://forest.watch.impress.co.jp/docs/news/1447245.html なければ作ればいいって検索の使われ方が変わったな。これも時代か。
Googleは論文が横断検索できるみたいだぜって話題になったのが遠い昔のようだ。 うひょーさすがだぜ!
これだよこれ!そういう機能よな その内AI生成かそうでないかを分かりやすく記載しなくなって見分けがつかない、みたいな時代か来そう
そうなると色々問題だな エロ関係を検索すると「そんなの検索しちゃ駄目よ」と書かれた絵が出るんだろうな(笑) >>12
変わってねーよ
こういうやつがサクラってやつな
MS宣伝のバイトして > 露骨な性的・暴力的コンテンツが意図せず作成されないかという点だが、同社によるとデータセットからそうしたものを削除している上
無能 AIが作った画像をソースにレスバが繰り広げられるのか胸熱 兵庫県議会議員が出てくるんですがどうしたらいいですか 芦田愛菜がおじさん達にあんなことやこんなことされてる画像はよ 懸念されてたけどやっぱシンギュラリティていきなり来るんだな メタと提携してNFTアートぼったくり派かと思ったがAI絵需要の先進性を正しく捉えたようだな 捏造エンジン
今でさえ「現実には一切企画のない新作映画」のポスター作られて問題になったりしてるんだが でて来ないっていうのがあっという間になくなって終わりそう >>1
エロ画像もだせるようにしろよな😡
たとえば、女子アナのエロ画像とか😡 エロ動画サイトで好みのエロ動画をオーダーメイドできる時代が来るんだろうな 無ければ作ってしまえってかw
コリアン検索エンジンw もう最近のアプリ凄すぎてアイコラ作りが楽しくてしょうがない >>21
はあああああ?なめてんのかよ!
じゃあいらねえよ! 検索したいのであってフェイクをつかまされたいわけじゃないんだが 捏造するんじゃねえよw2ちゃんで質問してガセ掴まされるようなもんじゃないか ご多分に漏れず、AIもエロでマネタイズと進歩が捗りますな。 AIが勝手に作った画像は求めてる画像とはちげえだろ 大事なのは「触手」が性的コンテンツに含まれているかどうかだな 流行らないだろうね
数年後にはマイクロソフトの黒歴史になりそう 検索しても出てこないってことは無いものなんだろ?
それをフェイク画像作りますって趣旨がおかしくね 先は読めた
『韓国5000年栄光の歴史 日本は奴隷』
とかでねつ造画像が出回るなw いまいち目的が不明確だね。
今までコラで作ってた「逃げ出したライオンの写真」とかを
マイクロソフトが捏造するって事? つまりあんな事やこんな事を妄想して検索すれば見せてくれるのか 局部や絡みをさせずにエロ画を生成するブーム来そう。
着エロは人間にしか判らないからね。 こういうのエロは禁止してるのホントつまらんわ
人間の限界を超えた狂気を見たいのに アイドルの裸とか、そっち系しか思いつかない
よな普通 地域によって同じ検索単語でも全然違う画像が出て記事になる
まで読めた bingは画像がいきなり出るから注意な
1 便で糞が表示される >>101
そう、AIアートの本領は人間的発想の枷を外すことだ
上手になることは技術的には凄いんだろうが魅力は感じない ファクトチェックとか言ってる時勢に
AIでフェイク生成かw とうとう、検索エンジンが、
統合失調症になっちゃったて感じます
素晴らC進化だとモピロン思われる
マクロクソフト最好❢
なにを、検索、いや妄想させようかな❤ こういう物の中にとんでもない科学的発見が出来たりしてシンギュラリティになるのかな > AIによる自動生成と聞くと懸念されるのが露骨な性的・暴力的コンテンツが意図せず作成されないかという点だが、同社によるとデータセットからそうしたものを削除している上、コンテンツポリシーに違反する画像の生成を抑制するフィルターを設けることで対策を行っているとのこと。
おまえらの夢は短い…そして愚かな夢だった😢 >>17
普段から自分のフェイク画像をばらまいとけば
醜聞のカモフラージュができていいかもね >>114
AIは事務仕事を殺す前にクリエイターwを殺したよなあ
ハイパークリエーターとか単なる思いつきの検索の世界だったんだな 違うそうじゃない
ニセモノ作ってどうするんだよ
まあNovelAIを駆逐する自信があるならそれはそれで凄いけれど それもいいけどオフにもできるようにしといてよ
グーグルでもおせっかいで関係ないの出されてこれかと勘違いしそうになることがよくあるんだよ まじ?
全身ピアスの幼女の画像検索したら出してくれる? マジな話すると実用化は無理そう
黒人男性ゴリラ見分けつかない問題解決出来るかねと思っちゃう 性的な物はなし
……じゃあエロ生成が得意なブラウザ開発したらGoogleに成れるかな? 存在しない画像を探すのって思ったより大変だな
全く見つからない >>137
ロリエロ所持で2桁食らうアメリカで訴訟起こされたら勝てる気がしない >>1
ユーザー「JS…」
bing「警告!警告!」 橋本環奈 乳首ピンコ立ちスケスケ
これ作ってくれたら認める 唯一神と俺とのツーショット写真が検索しても出てきません! >>140
知財の法律知らないなら黙っている方がいいぞ >>25
何でも逆バリすれば良いってものじゃないけど ソースがほしくて検索してる場合そういうのノイズになるよな 白いノースリーブで黒いリュックを背負った笑顔の白人女性 そういえば、鮫島事件の決定的な証拠写真とされるものを、誰かが頑なにオフラインで秘匿してると聞いたような…… 最近のGoogleは検索結果が酷い事になってて使いづらいんだよなぁ オマイラ様は 生粋の変態属性だからなぁ
おそらく ヒドイ内容を思い描いていそう… 災害時にフェイク画像が大量に拡散して収拾つかなくなるだろ どう責任とるんだよ? >>148
ユーザーから訴えられるんやでこの場合の想定は 存在しない画像をでっち上げられても混乱を招くだけではないだろうか なんというか、ようやく未来が来た感のある話題のような気がする
やっぱ、AIが一番凄いことになりそう iPhone20とか画像ないだろと思ったらいっぱい出てきてワロタ なんだよロリ画像生成できないのかよ、使えねー(LGBTの意見) 天安門でガンガン作成したるで(^。^)y-.。o○ >>182
村岡さんのことはもういいだろ!いい加減にしろ! 非エロとかなんの意味があるんだよ
本田翼 爆乳 デカ尻
こういうの無理って事だろ?意味ねえわ ここ最近の流れ
合成デジタルデータの価値
デジタル情報を全ての陳腐化させて
アナログ社会に逆行させたいんかな?
考えすぎ?(´・ω・`) よーし「Dick」とか「Pussy」で画像検索しちゃうぞ~(笑) 見つからないものを作成、ってどういうこと?ニセモノ画像にどんだけ価値あるの?
どっかからパクったホンモノなら、見つからないことがおかしいのではないの?
需要というか利便性がよくわからん、、また勝手に盗用キメラ合成なんてエグい話じゃないのか エロ抜きとしてどういうシーンで必要なのかさっぱりわからない プレゼン資料に使う画像とかで、ライセンスがあるものを検索してAI生成通せばフリーライセンスになるのかな? AIに魚を指定したら切り身写真出してくるのTwitterで見たから検索結果画像はAIで作るな Bingの検索はどうにもねぇ
DuckDuckGoのがマシ 未成年犯罪者とか被害者とか あんまいい使い方はされなさそう
そもそも作成される画像の精度に信頼感まるで無し >>21
それならそれで逆にそういうサービスが出てくるんじゃなかろうか
差別化のために性的なものに特化したサービスが出てくるならそれはそれでアリ >>217
機能をオフに出来るようにはして欲しいな これでロリコンのヌードを検索してもAIが沢山生み出してくれるんだな 今まで以上に
ネット上の情報が
どこかの誰かに操作されるね >>222
windows11のスタートメニューで検索すると自動的にBing ゴミ中国AIのりんながうざいので、bingは使わない
非表示にしても、復活するし 検索しても出て来ない画像ってそもそもどういう画像なんだ想像出来ない クッ◯ー全然AIの画像に当たらないぞ
検索結果が見つかりませんでしたの単語じゃないとダメなのか? この手のAIの自動画像ジェネレーターってエロ目的で使えるやつってあるの?それで作られたエロ画像って見たことないよ。 AIがアートに参加しちゃ駄目だろ
人間の自己実現や生き甲斐まで奪っていくのかよ >>21
上級者は「キノコ、ハマグリ、合体」のように検閲に引っ掛からないワードを使うのかと。 無いものを生成する、これで長年の夢が実現します
OpaiAIの画像生成AIで カップ多きく見せたい貴方に 「Bing」? >>247
学習データにエロが無いからどうにかしてエロっぽく出させるかが腕の見せ所 エロは駄目だからAIで裸体・肌判定ぐらいはしてそうだよね
そうなると、プリンとか、肉まんを様々な角度から
延々学習させれば、そのうち出てくるようになるかも? 阪神優勝
矢野監督胴上げ
あ、胴上げはキャンプでやってたから画像あるな こうやってネットがフェイクの海に沈むようになれば、個人情報流出とか怖くなくなるかもね 隠語を駆使してうまいことエロリ画像を生成させる猛者出現しそう >>247
ハマグリとキノコのガーリックバター酒蒸し
とか食い物しかでてこないような このクソ検索エンジンをゴリ押しするのやめて欲しい。 何だよこの記事
例を挙げてくれないと何ができるんだか分らねーじゃんか
最近の記者はまともに日本語すら書けないのか そしてエロ方面だけが突出して学習されていき高レベルになっていくわけですね 性的なものを除外するみたいだけど、「うわばき」「リコーダー」「乗馬」「健全」とか大丈夫? そんなのより、フォルダ内の文字検索をXP時代のまともな仕様に戻せ うちの嫁の名前+巨乳で検索すれば、巨乳画像の嫁が出てくるのか
胸が熱くなるな ■ このスレッドは過去ログ倉庫に格納されています