EFE

EFE

Google anuncia dos modelos de IA para avanzar en una nueva generación de robots humanoides

El primero es un modelo avanzado de visión-lenguaje-acción (VLA).


Google DeepMind ha presentado este miércoles dos nuevos modelos de inteligencia artificial (IA) que, según la compañía, sientan las bases de una nueva generación de robots útiles: Gemini Robotics y Gemini Robotics-ER.

Ambos modelos, basados ​​en su IA Gemini 2.0, permiten a diversos robots realizar en el mundo real una gama de tareas más amplia.

El primero es un modelo avanzado de visión-lenguaje-acción (VLA) que incorpora acciones físicas como nueva modalidad para controlar directamente a los robots.

Así, Gemini Robotics puede abordar tareas extremadamente complejas y de varios pasos que requieren una manipulación precisa, como plegar un origami o meter un bocadillo en una bolsa con cierre de 'zip', explica Google en su blog.

Para ser útiles y útiles para las personas, los modelos de IA para robótica necesitan tres cualidades principales, una de ellas ser generales, es decir, capaces de adaptarse a diferentes situaciones.

Además, ser interactivos o con capacidad para comprender y responder rápidamente a instrucciones o cambios en su entorno; y ser diestros, que quiere decir poder realizar las tareas que las personas generalmente hacen con las manos y los dedos, como manipular objetos con cuidado.

"Si bien nuestro trabajo previo demostró avances en estas áreas, Gemini Robotics representa un avance sustancial en el rendimiento en los tres ejes, acercándonos a robots verdaderamente de propósito general", resume.

Dado que los robots vienen en todas las formas y tamaños, Gemini Robotics ha sido diseñado para adaptarse fácilmente a diferentes tipos de robots.

Por su parte, Gemini Robotics-ER es un modelo de visión-lenguaje (VLM) con una comprensión espacial avanzada, que permite a los expertos en robótica ejecutar sus propios programas utilizando el razonamiento corporal de Gemini.

Así, este modelo mejora "con creces" capacidades como la de apuntar y la detección 3D para, por ejemplo, cuando se le muestra una taza de café, el modelo pueda intuir un agarre adecuado para cogerla por el asa y una trayectoria segura para acercarse a ella.

Estas capacidades de razonamiento, conseguidas al incorporar Gemini a ambos modelos, permiten a los diversos robots realizar una gama más amplia de tareas en el mundo real, indica la compañía, que se ha asociado con Apptronik para crear esta próxima generación de robots humanoides.

También están trabajando con grupo probadores de confianza para guiar el futuro de Gemini Robotics-ER.

"Esperamos explorar las capacidades de nuestros modelos y seguir desarrollándolos para que se apliquen en el mundo real".

Desde Google DeepMind describen que han avanzado en la forma en que los modelos Gemini resuelven problemas complejos mediante razonamiento multimodal en texto, imágenes, audio y video. Sin embargo, hasta ahora, estas capacidades se han limitado en gran medida al ámbito digital.

Para que la IA sea útil y útil para las personas en el mundo físico, deben demostrar razonamiento corporal (la capacidad similar a la humana de comprender y reaccionar al mundo que nos rodea), así como actuar con seguridad para realizar tareas, añade.

Por eso, "hoy presentamos dos nuevos modelos de IA, basados ​​en Gemini 2.0, que sientan las bases para una nueva generación de robots útiles", señala.