ここから本文です

AIシフト遅れるアップル、今からグーグルに勝てるのか?[Google I/O 2017]

5/20(土) 21:10配信

BUSINESS INSIDER JAPAN

日本時間5月18日未明から、グーグルが本社隣で開発者向けイベント「Google I/O 2017」を開催している。昨年、親会社アルファベット社傘下のグーグルCEO、スンダー・ピチャイ氏が「モバイルファーストからAIファーストへ」と宣言を行っていたが、今年の基調講演はまさに「AIファースト」を地でいく内容であった。

ピチャイCEOによる画像認識のデモ

基調講演のなかで来場者が最も驚いたのが、機械学習による画像検索技術「Google Lens」だ。会話型のエージェント機能である「グーグルアシスタント」と対話している際にカメラで花を撮影すると、その花がなんという種類かを教えてくれる。また街中でレストランの店頭を撮影すると看板などを読み取り、そのレストランに対するネットの評価をすぐに表示する。

さらに、日本語で書いてある「たこ焼き」という看板を写すと、文字を英語に変換。「どういった見た目なのか」とGoogle Assistantに質問すると、たこ焼きの画像をネットから引っ張り出してくれる、といった芸当も見せてくれる。

画像を認識し、検索するだけでなく、画像処理自体も進化している。例えば、金網越しのグラウンドで野球をしている少年の写真から、金網をすべて消してしまうといったこともできるようになるという。

1日12億枚の写真を画像認識するグーグル

こうした画像認識技術を支えるのが、グーグルのクラウドとAIの技術だ。すでにAndroidプラットフォームの月間アクティブユーザーが20億にもなるという。Googleフォトに関しては、月間アクティブユーザーが5億人を超え、毎日12億枚の写真がアップロードされ続けている。

グーグルはそれらの膨大な写真を解析し、どんな被写体がいて、何が映っていて、どんなシチュエーションなのかを徹底的に分析している。その積み重ねによって写真ストレージサービスの「Googleフォト」では、画像認識の精度がさらに向上していくのだ。実際、ユーザーがGoogleフォトで写真を管理し、検索で「桜」などで呼び出すとびっくりするぐらいに高い精度で写真を選び出すことができる。

もちろん、iPhoneでも同様の写真検索機能は備わっている。しかし、その精度においてはグーグルのほうが一枚上手のように感じる。グーグルは写真の内容をクラウドで処理・分析しているが、アップル・iPhoneは本体内での処理で完結している、という手法の違いだ。

5億人が毎日持ち寄る12億枚の写真を分析して画像認識するグーグルと、個人情報とは切り離した画像を使って学習させたアルゴリズムを使い、iPhoneの限られたパワーだけで画像認識をするアップルとでは、精度に大きな開きが出てきても仕方がない。

アップルとしては「個人の情報は端末内で完結させる」という徹底した個人情報保護主義を貫いているのだが、一方でグーグルは「便利ならいいじゃん」というスタンスで突き進んでいる。このあたりは「ハードウェアのメーカーとしてスタートしているアップル」と「ネット検索が起源のグーグル」という出身の違いが大きく影響しているのだろう。

1/3ページ

最終更新:5/22(月) 18:45
BUSINESS INSIDER JAPAN