DeepMind de Googleは、Gemini Roboticsと呼ばれるAIのモデルを発表します。ヒューマノイドロボットに統合されているため、ビデオで見ることができるように、いくつかのすでに見事なことを行うことができます。
自律的なヒューマノイドロボットの時代は近いです。彼らが役立つこと車を作るまたは彼ら自身の同族体、彼らはますます効率的です。の観点からの進歩人工知能この進化とは無関係ではなく、Googleはターンを見逃したくありません。その子会社deepmind言語モデルに基づいて専門的なAIの作成を発表します。ジェミニロボット。
マウンテンビュー会社の場合、ヒューマノイドロボットは、3ポイントを確保できる場合にのみ関心があります。最初に彼は負っていますあなたが言うことやあなたがしていることにリアルタイムで反応する。それから彼は借りている器用さを示します特定のジェスチャーを実行します。ついに、ロボットはその一般的な環境を理解できる必要があります、彼が突っ込んだものは何でも。これらの原則により、DeepMindはApptronikと協力して、見事な能力を持つロボットを開発しました。
テーブルの上に食べ物と容器を持っていた後、誰かがロボットに特定の食べ物を入れるように頼みます。彼はそれを完全に識別しますが、何よりも、その人が自発的にコンテナを数回動かすと同時に彼の動きを調整します。器用さの側面では、マシンは負けてはいけません。キット、ジッパー、または一枚の紙を折り、折り紙を作ります。
また読む - ヒューマノイドロボットの最初のトレーニングセンターが開いたばかりですが、機械の場所をあきらめる準備はできていますか?
印象的なのはそれですロボットによって作られたジェスチャーはいずれも事前に決められていません。彼は、リクエストと彼の環境の分析の後、それらをリアルタイムで達成し、それが彼の使用を非常に自然にします。たとえば、彼にモルピオンをプレイするように頼むか、何を入れるべきかを伝えてテーブルメーターを準備することができます。本当の機械的なアシスタント。
GoogleはすでにAI Gemini Roboticsのモデルを専門企業に委ねていますボストンダイナミクスのように(後ろおよびロボットアトラス)、俊敏性ロボットまたはアジャイルロボット。結果を見るのが待ちきれません。