Google DeepMind ha appena annunciato due nuovi modelli di AI – Gemini Robotics 1.5 e Gemini Robotics-ER 1.5 – progettati per migliorare le capacità dei robot, consentendo loro non solo di seguire ordini ma anche di pianificare, ragionare, cercare informazioni e condividere abilità.

I robot possono autoapprendere e adattarsi

Invece di seguire solo uno script pre-programmato, i robot di nuova generazione possono affrontare situazioni complesse. Ad esempio, possono:

Cercare previsioni del tempo online per imballare correttamente i bagagli.

Accedere alle normative sul riciclaggio locali e classificare i rifiuti correttamente.

Piegare i vestiti in base al colore o al materiale senza necessità di essere programmati in dettaglio per ogni passaggio.

Questa è la capacità di "generalizzazione" – una generalizzazione, un aspetto con cui i robot e gli algoritmi tradizionali spesso hanno difficoltà.

Il modo in cui i due modelli collaborano

Gemini Robotics-ER 1.5: svolge il ruolo di "cervello", pianificando più passaggi, cercando informazioni tramite Google Search.

Gemini Robotics 1.5: trasforma i piani in azioni fisiche precise grazie al modello vision-language-action (VLA).

Nei test, i robot possono riconoscere oggetti, cercare istruzioni per il riciclaggio a San Francisco e poi gestire autonomamente i rifiuti. Anche se il tasso di successo raggiunge solo il 20% – 40%, questo rappresenta un progresso significativo rispetto alla generazione precedente.

Significato strategico

Il CEO Sundar Pichai ha sottolineato che la nuova tecnologia porterà i robot a pensare, pianificare e apprendere più come gli esseri umani, ponendo le basi per robot multiuso (general-purpose robots).