Google DeepMind ha appena annunciato due nuovi modelli di AI – Gemini Robotics 1.5 e Gemini Robotics-ER 1.5 – progettati per migliorare le capacità dei robot, consentendo loro non solo di seguire ordini ma anche di pianificare, ragionare, cercare informazioni e condividere abilità.
I robot possono autoapprendere e adattarsi
Invece di seguire solo uno script pre-programmato, i robot di nuova generazione possono affrontare situazioni complesse. Ad esempio, possono:
Cercare previsioni del tempo online per imballare correttamente i bagagli.
Accedere alle normative sul riciclaggio locali e classificare i rifiuti correttamente.
Piegare i vestiti in base al colore o al materiale senza necessità di essere programmati in dettaglio per ogni passaggio.
Questa è la capacità di "generalizzazione" – una generalizzazione, un aspetto con cui i robot e gli algoritmi tradizionali spesso hanno difficoltà.
Il modo in cui i due modelli collaborano
Gemini Robotics-ER 1.5: svolge il ruolo di "cervello", pianificando più passaggi, cercando informazioni tramite Google Search.
Gemini Robotics 1.5: trasforma i piani in azioni fisiche precise grazie al modello vision-language-action (VLA).
Nei test, i robot possono riconoscere oggetti, cercare istruzioni per il riciclaggio a San Francisco e poi gestire autonomamente i rifiuti. Anche se il tasso di successo raggiunge solo il 20% – 40%, questo rappresenta un progresso significativo rispetto alla generazione precedente.
Significato strategico
Il CEO Sundar Pichai ha sottolineato che la nuova tecnologia porterà i robot a pensare, pianificare e apprendere più come gli esseri umani, ponendo le basi per robot multiuso (general-purpose robots).