Googleレンズはあなたのカメラと検索を(さらに)スマートにします。

私たちは永遠に私たちの前に私たちの携帯電話で行く時が来るでしょう… まあ、現在はほぼそこにありますが、Google検索とGoogleレンズのための今日のGoogle I/O 2019で発表された新機能は、さらに物事を取っています。というか、「近い」と言った方がいいかもしれません。

何が新しいの?Googleレンズは今、あなたがあなたの携帯電話を介して見ているものを伝えることができるようになります, しかし、それはまた、あなたのために別の言語にある標識やポスターを翻訳します, ブートするためにあなたの言語であなたにそれを読んで. また、Google検索で特定のオブジェクト(体のパーツや動物など)を見つけると、カメラで撮影した空間にも表示されるようになります。

もう一試合?イエスかノーか 机の上で体の筋肉の動きを見たり 居間でホオジロザメの獣のような大きさを鑑賞したりしても 教育学的なユーティリティーを開くのを止められないというのが真実です 真面目すぎる?欲しくてたまらないスニーカーを見つけて、買う前にカメラとARでパンツやシャツとの相性を見極めましょう。技術そのものもそうですが、それ自体が良いとか悪いとかではなく、使い方次第です。

問題は、我々はビジュアルリアリティの時代に生きており、Googleはこのことを完全に理解しているということです。私たち自身、何度も何かを説明するためには、それを描いたり、見せたりするよりも良い方法を見つけることができません。カメラ、コンピュータビジョン、拡張現実(AR)を使って、自分の物理的な環境に情報やコンテンツを重ね合わせていくというアイデアです。 目の前にあるものが何なのか理解できませんか?だろうな。

検索の新しいAR機能は今月下旬に展開される予定で、これにより、検索から直接3Dオブジェクトを見たり、対話したりすることができるようになり、3Dオブジェクトを自分の空間に直接配置することができます。前にお伝えしたこと:この18フィートの長さのサメを読んで、考えを巡らせることができます。しかし、それを間近で見るのと、周りのものとの関係で見るのとでは、全く別物です。

ところで、この手の技術は、それを生かす方法を知っているパートナーがいなければ何にもなりません。これらの新しい機能のために、GoogleはNASA、博物館、ニューバランス、サムスン、ターゲット、可視ボディ、ボルボ、ウェイフェアなどの店舗のようなメーカーのような機関と協力してきました。近い将来、検索はより速くなるだけでなく、より啓発的で楽しいものになるでしょう。

人々はすでに10億以上のGoogle Lensに、自分が見ているものについての質問をしています。レンズは、機械学習(ML)、コンピュータビジョン、ナレッジグラフの数百億の事実を活用して、これらの質問に答えます。今、Lensの進化は、視覚的な疑問に、より多くの視覚的な答えを提供します。

示された例は、確かに最も照らされていました。レストランで何を注文しようかと考えていると Google Lensは、物理的なメニューの中で最も人気のある料理を自動的にハイライトします。名前をタップすると、AR内の料理はもちろん、Googleマップ上の写真やレビューのおかげで、その料理について人々が何を言っているのかを見ることができます。食べ物は目から入ってくると祖母たちがよく言っていました…。

特にGoogle Lensは、聞き慣れない言葉が飛び交う場所を旅しているときに便利でしょう。書かれたテキストにカメラを向けると、Lensが自動的に言語を検出してオーバーレイし、元の単語の上に翻訳してくれます。100以上の言語に対応しているので、本当にエキゾチックな場所でなければ、何の問題もないはずです。

Googleは他にも、有用なデジタル情報を物理的な世界のものにつなげる方法を模索しているという。なので、例えば美術館に行ったときに、特定の絵画にまつわる隠された物語をLensで見ることができるようになります。あるいは、ボナペティ誌に掲載されている料理を見て、作ってみたいと思ったら、レシピにカメラを向けると、ページに命が吹き込まれて、その料理の作り方を正確に教えてくれます。

要するに、Google Lensの新しい能力は、私たちには非常に当たり前のように見えることがありますが、Googleや他のパートナー企業が、最も当たり前のことを現実のものにするために取り組んでいる最先端の技術開発、つまり目の前にあるものを現実にするためのものです。

comments powered by Disqus