Googleの開発者カンファレンス「Google I/O 2017」の一般向け基調講演は、同社のプラットフォームの拡大を示す数字から始まった。
現在プラットフォームを支える7つのサービス、Google検索、Gmail、Android、Chrome、YouTube、Googleマップ、Google Playは、それぞれが10億人以上の月間アクティブユーザーに利用されている。

これらのサービスはユーザーが増加しているだけではなく、ユーザーのサービスへの関わりも深まっている。
たとえば、YouTubeでは毎日10億時間のビデオが視聴され、Googleマップのナビゲーションは毎日10億キロに達する。

コンピュータサイエンスと技術的な見識を以てソリューションを生み出し、その恩恵が「全ての人に広がる」ように「サービスをスケールアップする」のが創業以来のGoogleのアプローチである。
Web検索で全ての人が世界中の情報にアクセスできるようにし、Androidでモバイルコンピューティングを世界中の人々に浸透させた。
そして昨年、Google I/Oにおいて同社は「モバイル優先」から「AI(人工知能)優先」へのシフトを宣言した。

「なぜAIなのか?」、同様の問いはAndoridの時にもあった。「Web検索のGoogleがなぜモバイルなのか?」。
今ふり返ってみると、マルチタッチ、ロケーション、個人認証、ペイメントなどモバイルで実現したことによって、Webの価値が変わり、人々の生活がより便利になった。

Androidはアクティブデバイス数が20億台を超えた。Googleがモバイルをスケールアップさせた意義は大きい。
モバイル優先がAI優先に変わっても、「全ての人のためにスケールアップさせる」というGoogleのアプローチに変わりはない。

Googleの一般教書と呼べるGoogle I/O基調講演のオープニング、CEOのSundar Pichai氏は昨年に続いて「AI優先」について語った。
昨年との違いは、AI優先のビジョンを示すにとどまった昨年に対して、今年Pichai氏は「スケールアップ」について語った。AI優先の本格始動である。

AI優先は、私たちの生活にどのような変化をもたらすのか。すでに現実になっているのが自然言語によるデジタルアシスタントとのやり取りである。
PC時代のキーボード&マウスからモバイルでマルチタッチが普及し、Google Homeのようなスマートスピーカーで音声にインターフェイスが広がっている。

そして、次はビジョンである。話し言葉、画像や動画の内容をAIが認識する精度が高まることで、「話す/聞く」「見せる/見る」といった手軽な方法で、私たちはAIやサービスとインタラクトできるようになる。

最初の発表は「Google Lens」だった。モバイルデバイスのカメラでキャプチャしたビジュアルをAIが解析し、画像や映像に基づいたアシスタントをGoogle Assistantが提供する。
AR(拡張現実)を取り込んだGoogle Assistantと呼べるようなサービスだ。たとえば、プリセットの長い文字列を入力しなければならないワイヤレスルーターの接続設定。

Google Lensでルーターに貼られたバーコードを撮影すると、AIが機種を認識してGoogle Assistantが自動的に設定を完了させるということが可能になる。※続く

たくさんの人たちに小さなコンピュータを普及させたAndroid、アクティブデバイス数が20億台に
http://news.mynavi.jp/articles/2017/05/19/google/images/004.jpg

配信 2017/05/19

マイナビニュース 全文はソース先で
http://news.mynavi.jp/articles/2017/05/19/google/