Google DeepMind acaba de anunciar dos modelos de IA nuevos – Gemini Robotics 1.5 y Gemini Robotics-ER 1.5 – diseñados para mejorar las capacidades de los robots, ayudándoles no solo a seguir órdenes, sino también a planificar, razonar, buscar información y compartir habilidades.
Los robots pueden autoaprender y adaptarse
En lugar de solo seguir un guion preprogramado, los robots de nueva generación pueden resolver situaciones complejas. Por ejemplo, pueden:
Buscar pronósticos del tiempo en línea para empacar adecuadamente.
Acceder a las regulaciones de reciclaje locales y clasificar la basura correctamente.
Doblar la ropa por color o material sin necesidad de ser programados paso a paso.
Esta es la capacidad de “generalización”, algo con lo que los robots y algoritmos tradicionales a menudo tienen dificultades.
La forma en que los dos modelos colaboran
Gemini Robotics-ER 1.5: actúa como el “cerebro”, planificando múltiples pasos, buscando información a través de Google Search.
Gemini Robotics 1.5: convierte el plan en acciones físicas precisas gracias al modelo de visión-lenguaje-acción (VLA).
En las pruebas, los robots pueden reconocer objetos, buscar guías de reciclaje en San Francisco y luego manejar la basura por sí mismos. Aunque la tasa de éxito solo alcanza el 20% – 40%, este es un avance significativo en comparación con la generación anterior.
Significado estratégico
El CEO Sundar Pichai enfatizó que la nueva tecnología acercará a los robots a pensar, planificar y aprender como los humanos, sentando las bases para robots de propósito general (general-purpose robots).