DeepMind lança robôs autônomos que não dependem da internet

DeepMind lança robôs autônomos que não dependem da internet
Imagem destaque: ChatGPT

Imagine um robô que entende o que está vendo, interpreta o que você diz e age em tempo real — tudo isso sem conexão com a nuvem. 

Essa é a nova proposta do Gemini Robotics On-Device, o modelo da DeepMind que leva IA generativa para o mundo físico com um pacote completo que roda direto no robô.

A atualização marca uma mudança importante. Antes, os robôs precisavam “pensar” na nuvem. Agora, eles podem agir com mais autonomia e velocidade, uma vantagem importante para tarefas que exigem precisão e reação imediata.

🚀 IA que vê, entende e age (sem esperar a resposta do servidor)

Na versão anterior, os robôs funcionavam com um sistema híbrido. Uma parte da IA rodava localmente e a outra dependia da nuvem. Isso atrasava decisões e limitava o uso em ambientes com internet instável.

Agora, com o novo modelo VLA (Vision Language Action), os robôs podem processar imagens, linguagem e movimento totalmente de forma local — um avanço que torna a operação mais fluida, segura e até mais privativa em contextos como saúde e assistência.

🛠️ SDK liberado para desenvolvedores: crie seu próprio robô Gemini

Para a comunidade tech, o lançamento vem com um presente. O SDK aberto permite que qualquer desenvolvedor treine o robô para novas tarefas com apenas 50 a 100 demonstrações.

Basta controlar o robô manualmente para ensinar uma tarefa — como dobrar uma camiseta — e ele aprende a repetir sozinho. Segundo Carolina Parada, líder do projeto, a adaptação do robô a novas situações é surpreendente.

🧠 Gemini 2.0 por trás do volante (e Gemini 2.5 na garagem)

O modelo atual do Gemini Robotics é baseado no Gemini 2.0, enquanto o chatbot do Google já opera com o Gemini 2.5, considerado um salto de qualidade. Ou seja: a versão dos robôs ainda está um passo atrás, mas há grandes expectativas sobre o que virá na próxima atualização.

Mesmo assim, a versão atual já consegue executar ações complexas, como amarrar cadarços — uma tarefa notoriamente difícil para robôs — com um grau de precisão impressionante para um modelo local.

⚠️ Segurança é responsabilidade de quem implementa

Como a IA agora está embarcada, a responsabilidade pela segurança ficou nas mãos de quem desenvolve. O VLA local não traz, por padrão, os controles de força e velocidade, por exemplo.

A DeepMind recomenda que os desenvolvedores integrem o modelo a um controlador de baixo nível com esses limites e, se possível, usem também a API Gemini Live, que traz uma camada de verificação extra.

🌍 Para onde vamos com robôs mais autônomos?

Esse avanço pode aumentar o uso de robôs em ambientes onde a nuvem é inviável, como áreas remotas, zonas industriais ou hospitais. E com a possibilidade de personalização rápida, abre portas para aplicações comerciais e domésticas.

Parada afirma que essa é apenas a “fase 1” do projeto. O futuro dos robôs Gemini promete ser ainda mais inteligente — e talvez mais presente na nossa rotina do que imaginamos.

📌 Leia também:

Apple e Meta disputam startup de IA avaliada em US$ 14 bilhões

Congresso dos EUA quer vetar leis estaduais sobre IA por 10 anos

Algoritmo racista: IA usada na Justiça dos EUA erra mais com réus negros

  Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: