Imagine um robô que entende o que está vendo, interpreta o que você diz e age em tempo real — tudo isso sem conexão com a nuvem.
Essa é a nova proposta do Gemini Robotics On-Device, o modelo da DeepMind que leva IA generativa para o mundo físico com um pacote completo que roda direto no robô.
A atualização marca uma mudança importante. Antes, os robôs precisavam “pensar” na nuvem. Agora, eles podem agir com mais autonomia e velocidade, uma vantagem importante para tarefas que exigem precisão e reação imediata.
🚀 IA que vê, entende e age (sem esperar a resposta do servidor)
Na versão anterior, os robôs funcionavam com um sistema híbrido. Uma parte da IA rodava localmente e a outra dependia da nuvem. Isso atrasava decisões e limitava o uso em ambientes com internet instável.
Agora, com o novo modelo VLA (Vision Language Action), os robôs podem processar imagens, linguagem e movimento totalmente de forma local — um avanço que torna a operação mais fluida, segura e até mais privativa em contextos como saúde e assistência.
🛠️ SDK liberado para desenvolvedores: crie seu próprio robô Gemini
Para a comunidade tech, o lançamento vem com um presente. O SDK aberto permite que qualquer desenvolvedor treine o robô para novas tarefas com apenas 50 a 100 demonstrações.
Basta controlar o robô manualmente para ensinar uma tarefa — como dobrar uma camiseta — e ele aprende a repetir sozinho. Segundo Carolina Parada, líder do projeto, a adaptação do robô a novas situações é surpreendente.
🧠 Gemini 2.0 por trás do volante (e Gemini 2.5 na garagem)
O modelo atual do Gemini Robotics é baseado no Gemini 2.0, enquanto o chatbot do Google já opera com o Gemini 2.5, considerado um salto de qualidade. Ou seja: a versão dos robôs ainda está um passo atrás, mas há grandes expectativas sobre o que virá na próxima atualização.
Mesmo assim, a versão atual já consegue executar ações complexas, como amarrar cadarços — uma tarefa notoriamente difícil para robôs — com um grau de precisão impressionante para um modelo local.
⚠️ Segurança é responsabilidade de quem implementa
Como a IA agora está embarcada, a responsabilidade pela segurança ficou nas mãos de quem desenvolve. O VLA local não traz, por padrão, os controles de força e velocidade, por exemplo.
A DeepMind recomenda que os desenvolvedores integrem o modelo a um controlador de baixo nível com esses limites e, se possível, usem também a API Gemini Live, que traz uma camada de verificação extra.
🌍 Para onde vamos com robôs mais autônomos?
Esse avanço pode aumentar o uso de robôs em ambientes onde a nuvem é inviável, como áreas remotas, zonas industriais ou hospitais. E com a possibilidade de personalização rápida, abre portas para aplicações comerciais e domésticas.
Parada afirma que essa é apenas a “fase 1” do projeto. O futuro dos robôs Gemini promete ser ainda mais inteligente — e talvez mais presente na nossa rotina do que imaginamos.
📌 Leia também:
Apple e Meta disputam startup de IA avaliada em US$ 14 bilhões
Congresso dos EUA quer vetar leis estaduais sobre IA por 10 anos
Algoritmo racista: IA usada na Justiça dos EUA erra mais com réus negros
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.