X



【企業】グーグル、携帯電話の検索アプリを変更 個人用フィードを導入 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
0001みつを ★
垢版 |
2017/07/20(木) 05:52:37.69ID:CAP_USER9
http://jp.mobile.reuters.com/article/technologyNews/idJPKBN1A40SU

[サンフランシスコ 19日 ロイター] - 米アルファベット(GOOGL.O)傘下のグーグルは19日、携帯電話の検索アプリを全面的に変更すると発表した。趣味、旅行、スポーツ、他のトピックスなどを提供する個人用フィードを導入する。

変更は19日から米国で開始する見通し。米国以外の国では数週間以内に着手するという。

導入する個人用フィードは「グーグル・フィード」と呼ばれ、検索結果に関連した情報が次々に現れる仕組み。次の休暇で出かける場所に関する情報が掲載されたウェブサイトのリンクやサイクリングなど他の趣味に関するページのリンクなどが更新されるという。

現時点ではグーグル・フィードに広告を掲載する予定はないとしている。

グーグル・フィードはユーザーの過去の検索結果のほか、ユーチューブ、Gメール、グーグルカレンダーなど他のグーグルのサービスからのデータに基づいて情報を提供する。

携帯電話アプリのほか、何らかの形でウェブ・ブラウザーへのグーグル・フィード導入も検討している。

2017年 7月 19日 6:36 PM JST
0005名無しさん@1周年
垢版 |
2017/07/20(木) 07:09:15.13ID:PmeaTP470
興味がないバナー広告を繰り返し表示するの止めてくれ
http://i.imgur.com/bHgKKuA.png
http://i.imgur.com/I1QKEZU.png
広告はGoogleにより終了しましたって出ても繰り返し表示される
どこの何を参照してるのか知らないけど、検索も閲覧もしてないのにお金に絡んだバナー広告が出るのがおかしい
0006名無しさん@1周年
垢版 |
2017/07/20(木) 07:13:45.76ID:sdBXUq160
ガンなんかの症状を検索してたら
終活とか相続なんかの情報オススメされたりする余計なお世話しそう
0007名無しさん@1周年
垢版 |
2017/07/20(木) 07:13:59.16ID:Xwxh4u/z0
何かを改良したという度に使えなくなってきたのでもう使ってない
入力したワードで検索しないで勝手に変換しやがって余計なお世話もいいところ
0008名無しさん@1周年
垢版 |
2017/07/20(木) 07:15:05.71ID:iGuxUlQI0
googleだけじゃないが、しつこい広告は意地でもクリックや購入しない
0009名無しさん@1周年
垢版 |
2017/07/20(木) 07:25:29.66ID:LU15gskK0
>>6
一号警備
という言葉の意味を検索したら
しばらくリクナビの警備業転職の広告が表示されまくってたw
0010名無しさん@1周年
垢版 |
2017/07/20(木) 07:26:42.13ID:ub37EPe80
【AI】仏学者が警鐘鳴らす「AIと巨大IT企業の情報操作」 2ch.net
元スレ http://egg.2ch.net/test/read.cgi/bizplus/1498799689/

人工知能が急速に進歩し、社会に浸透する中、AI(人工知能)が人間を超えるとした「シンギュラリティ仮説」を唱え、人工知能への脅威を煽る声も目立ってきた。

 だが、仏ピエール・マリキュリー大学情報学教授で哲学者のジャン=ガブリエル・ガナシアさんは、近著「そろそろ、人工知能の真実を話そう」(早川書房)で、
シンギュラリティ仮説には科学的根拠はなく、むしろこれを喧伝するGAFA(Google、Apple、Facebook、Amazon)といった巨大IT企業の戦略に目を向けるべきだと説く。

 フランスではGAFAが個人情報を集めて情報操作をしているといった懸念や、特定の情報にしかアクセスしなくなることで情報の殻に閉じこもったような状態「フィルターバブル」が問題になっているという。ガナシア氏が本誌に語ったその真実とは?
中略
――AIの活用は社会経済の発展に寄与する。リスクや恐怖を抑えて、ポジティブに進めるには、どうしたらよいか。

 AIの活用で私たちの生活はより便利になるが、リスクはある。AIによって私たちはより脆弱になっている。技術に依存すると逆に人間は弱くなるからだ。
例えばペースメーカーを付けている人は、ペースメーカーが壊れるリスク、乗っ取られるリスクを常に抱えている。こういうことがあらゆるところで起こっているのが現状だ。

リスクを避けるには、短期的な利益ばかりではなく、長期的に見る必要がある。また、「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮して技術の社会実装を進めることが、AIの有益な活用につながる。
ただし、この3つはお互いに対立するので、どこかで妥協が必要になる。これを私は「倫理のトリレンマ」と呼んでいる。

――その倫理とは?

 具体的には、技術の設計段階から考慮する必要がある。セキュリテイの確保、個人情報の保護のために、どのようにシステムを設計し、運用し、動作を保証するのかということだ。

 例えば、個人情報保護では、あるサービスのためにスマホなどの端末で個人情報を収集するが、企業の中央サーバーへ送らずに、利用者の端末などその場でデータ処理をするという方法もある。

 私が関わっている研究開発で「インテリジェントTV」がある。視聴者が見た番組情報を元に、番組をリコメンドしてくれる。

このときに、視聴者の番組情報を中央サーバーに送ると、企業は視聴者それぞれに合ったターゲット広告を送ることができる。

一方、中央サーバーに送らずに視聴者のテレビの中でデータ処理をしてリコメンドをすれば、企業は視聴者のデータをもとに広告を出せない。ただこのとき、企業が広告収入を得られないと、視聴者がテレビを見るのにお金を払わないといけなくなるかもしれない。

「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮しながら製品開発を進める専門職が産業界にできてもいいくらい重要なものだ。

――AI技術の開発について、日本は総務省が「開発ガイドライン」の作成を進めている。国による規制や規準作りをどう見るか。

 国が技術開発を規制するのは難しい。特に欧米では、技術の規制や規準は競争を阻害すると見る。

むしろもっとオープンな開発にするべきだ。規制ではなく、良いものに対して認証をする方が良い。消費者が安心して買えるような認証制度を作るのがよいと考えている。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況