Pixel 4: Google、デュアルフォトセンサーのおかげで拡張現実のパフォーマンスを向上

Googleは、拡張現実におけるPixel 4のパフォーマンスを向上させる準備を進めている。これまで、スマートフォンは必要なデータの計算に光センサーの 1 つだけを使用していました。将来の SDK アップデートでは、両方のセンサーが使用される予定です。 Pixel 5がこの恩恵を受けるかどうかはまだ不明です。

スマートフォンで拡張現実機能を提供できるようにするために、Google は次の SDK を開発しました。ARコア。動きセンサー、光、そしてもちろん光センサーのおかげで、後者は仮想オブジェクトを環境に配置するために必要な計算を実行します。それにもかかわらず、ARCore は 1 つのカメラ センサーのみを使用します、そしてこれは、3つまたは4つのセンサーを備えた電話が開発されているにもかかわらずです。

そこでGoogleはこれを改善することを決定した。したがって同社は、これを可能にする ARCore アップデートを展開しています。2つのフォトセンサーを同時に使用するには。リリースの注釈では、特に次のことがわかります。「互換性のあるデバイスのデュアルカメラによるステレオ深度」。したがって、影響を受けるスマートフォンでは次のように表示されます。拡張現実でのパフォーマンスの向上特に深さの計算において。

同じテーマ — 公式 Pixel 4a 5G:Google、スーパーチャージされたミッドレンジバージョンを499ユーロから発売

更新内容は、今後数週間以内に利用可能になりますGoogle によると、現時点では考慮する必要がありますピクセル4と4XL。この決定は、最近リリースされたことに加えて、Pixel 5 と 4a 5G にもデュアルフォトセンサーが搭載されています。ただし、これは、セカンダリ センサーが以前のセンサーよりもはるかに大きく、深さの計算が複雑になる可能性があるという事実によって説明できます。

したがって、Google は再び次のような影響に苦しんでいます。写真に関する彼の危険な選択。同社は、すでに提供されている優れたコンピューティング性能のおかげで、自社のスマートフォンには複数のセンサーは必要ないと長い間主張してきました。しかし彼女はPixel 4で方向転換した、ダブルセンサーを搭載。この優柔不断には次のような結果が伴います。Pixel 5 と 4 の写真の品質は大幅に低下しました旧モデルとの比較。

ソース :アンドロイド警察