1年前、GoogleはGoogleアシスタントを発表した。今年の Google I/O 2017 では、アメリカの巨人がパーソナル アシスタントに新しい次元をもたらします。Google レンズです。後者では、カメラを通じて周囲の環境を直接分析できます。ユーザーが指したオブジェクトや場所を認識し、状況に応じたいくつかのアクションを提供します。
Google アシスタントがフランス語でも利用可能になりました数週間。利用できるのはテキスト版のみですが、最初の結果は期待できるようです。ユーザーが携帯電話を手に持って何をしたいのかを理解するのは複雑です。 Googleもそれを認識しているが、さらにギアを上げようとしているようだ。
サムスンは最近、独自のパーソナル アシスタント「Bixby」を発売しました。 Bixby Vision ツールを使用すると、Galaxy S8 カメラ経由で周囲をスキャンできます。 Google レンズも同様に機能するようです。花、ラベル、または店舗をポイントすると、アプリケーションは、あなたが自問するかもしれない潜在的な質問に関連するいくつかのアクションを表示します。
Google I/O 2017 カンファレンス中、マウンテンビューの巨人は、周囲の世界の学習に関するデバイスの進化を強調しました。同社サービスのユーザー数は増加しており、Googleのパーソナルアシスタントが対応する状況も多様化している。
Google レンズは携帯電話のカメラを使用し、目の前の物体の形状や性質を認識できるようになります。すでに提供されているものと同じようにGoogle翻訳を使用すると、パーソナル アシスタントが文書のテキスト、標識、またはラベルを識別し、それに応じた対応を提案します。
カンファレンス中に示された具体例の 1 つは、インターネット モデムの後部の写真です。セキュリティ コードとネットワーク名をスナップするだけで、Google レンズはインターネットに接続できます。用途は数多くあるようで、さまざまな状況を考慮するとアシスタントが不可欠になる可能性があります。