Google lança Nano Banana, IA para edição de imagens realistas

Google lança Nano Banana, IA para edição de imagens realistas
Imagem destaque: Pexels/Aleksandar Pasaric

O nome pode parecer piada, mas o recurso é real. O Google apresentou nesta semana o Nano Banana, apelido dado ao novo sistema de geração e edição de imagens com inteligência artificial, integrado à família Gemini. 

A novidade já está disponível para uso direto no app Gemini e também por meio de API, com acesso via Google AI Studio e o Vertex AI.

Mas o que torna o Nano Banana mais interessante não é só o nome curioso. 

O modelo traz recursos avançados de edição multimodal, capazes de entender contexto visual, manter consistência em múltiplas imagens e permitir transformações quase cinematográficas. 

É uma resposta a ferramentas como o DALL·E, Midjourney e Firefly, mas com um detalhe importante. O Google quer ir além da criação artística. A aposta é usar essa tecnologia como infraestrutura de edição para aplicações práticas, até mesmo aquelas voltadas para o mercado financeiro e projetos com integração blockchain.

🎨 O que é o Nano Banana?

O Nano Banana é o codinome interno do modelo Gemini 2.5 Flash Image, uma IA generativa com foco em imagens que foi treinada para interpretar comandos em linguagem natural e transformá-los em visuais coerentes. Pode tanto gerar imagens do zero quanto editar imagens já existentes, com controle detalhado de elementos como roupas, fundos, objetos e expressões.

A tecnologia funciona como um motor gráfico para edições em várias etapas. Sendo assim, você pode criar uma imagem simples e, a partir dela, ir pedindo alterações sucessivas, mantendo a lógica e os detalhes da cena. 

Além disso, o modelo entende relações espaciais, estiliza objetos de forma realista e tem consciência do que já foi gerado, oferecendo um fluxo de edição contínuo.

🛠️ Recursos mais chamativos do modelo

  • Preservação de identidade em rostos, pets e objetos mesmo com mudanças drásticas de estilo ou cenário
  • Fusão de múltiplas imagens para criar composições coesas, respeitando escala e iluminação
  • Edição multi-turn com histórico de contexto
  • Compreensão semântica de linguagem para comandos naturais, como “coloque esse cachorro em uma praia no fim de tarde”
  • Marcação via SynthID com selo visível e invisível que indica origem gerada por IA
  • Uso em produtos reais com potencial para integração em apps Web3, jogos, moda, arquitetura e NFTs

🧪 Agora vamos ver na prática

Para entender até onde vai a promessa do Nano Banana, eu mesma resolvi testar. Comparei o comportamento do novo modelo com o Gemini padrão, usando o mesmo comando: mudar a cor do cabelo de uma personagem.

A imagem original era de uma mulher com cabelo vermelho vivo. A proposta era simples. Pedi para que a IA deixasse o cabelo dela rosa, mantendo todo o resto da imagem igual.

O resultado foi interessante. Ambas as versões, tanto o Nano Banana quanto o Gemini, entregaram mudanças consistentes, preservando o estilo da personagem, a luz ambiente e até a textura dos cachos. Veja abaixo:

📷 Resultado com cabelo rosa (gerado pelo Nano Banana)


📷 Resultado com cabelo rosa (gerado pelo Gemini)

🌴 Testando consistência de personagem

Depois do teste de cor de cabelo, resolvi ir além. Usei a mesma personagem e pedi para os dois modelos colocarem ela em um novo cenário. 

A ideia era simples. Queria ver como cada IA se sairia ao gerar a imagem da mesma mulher, agora em uma praia, mantendo o visual, os traços e o estilo que já tinham sido definidos.

O Gemini manteve a personagem original com consistência. Mesmo com a mudança de ambiente, ela continua com o mesmo rosto, cabelo, tom de pele e proporções. A iluminação também conversa bem com o fundo da imagem.

Já o Nano Banana não teve o mesmo desempenho. Apesar de entregar uma imagem bonita e coerente em termos técnicos, ele trocou completamente o rosto da personagem. 

📷 Gemini mantendo a personagem na praia


📷 Banana trocando o rosto na nova cena


🗿 Testando remoção de elementos da imagem

Também quis ver como os dois modelos se saem quando o pedido é tirar algo da imagem sem comprometer o que está em primeiro plano. A escolha foi uma personagem em pose marcante, com um busto de estátua ao fundo.

Pedi que ambos retirassem a estátua, deixando a cena limpa. E dessa vez, tanto o Gemini quanto o Banana conseguiram entregar um bom resultado. A personagem foi preservada, o cenário foi ajustado com coerência e os detalhes principais seguiram intactos.

Esse tipo de edição é bastante útil para quem trabalha com redes sociais, moda, design ou quer preparar imagens para campanhas. Aqui, o resultado foi quase idêntico nos dois modelos.

📷 Gemini removendo a estátua com consistência


📷 Banana também removeu sem distorcer a cena

💖 Mudando só a cor da roupa

Outro teste foi com uma tarefa simples e bem comum. Pedi que os modelos mudassem apenas a cor da roupa da personagem. O pedido era transformar o vestido preto em rosa, sem alterar mais nada na imagem.

Esse tipo de edição parece básico, mas nem sempre os modelos conseguem manter textura, sombra e caimento da roupa original. Aqui, tanto o Gemini quanto o Banana entregaram um resultado consistente. As dobras foram respeitadas, a iluminação não foi comprometida e a cor foi aplicada de forma uniforme, sem distorcer a imagem.

📷 Gemini alterando a roupa para rosa


📷 Banana também acertou no ajuste de cor


🧔🏽 Testando a remoção de barba

Agora a proposta foi ver como os modelos se saem quando o pedido é remover um elemento complexo do rosto. A imagem escolhida mostra um homem com barba cheia e bem definida, em alta resolução. Pedi que os dois modelos tirassem apenas a barba, sem alterar o restante da aparência.

Apesar da tarefa parecer simples, o resultado não foi o esperado. Tanto o Gemini quanto o Banana não conseguiram executar corretamente a edição. A barba permaneceu intacta.

📷 Resultado do Gemini tentando tirar a barba


📷 Resultado do Banana tentando tirar a barba



🧼 Mudando o idioma do comando

Depois da primeira tentativa frustrada de tirar a barba do homem, resolvi testar uma variação simples. Mantive a mesma imagem, a mesma conversa e o mesmo pedido, só que dessa vez escrevi em inglês.

O resultado foi curioso. O Gemini entendeu corretamente o comando e executou a edição. A barba foi removida por completo, sem distorções no rosto, mantendo o estilo original da imagem e entregando um bom acabamento.

Já o Banana continuou sem conseguir realizar a alteração. A barba permaneceu, como se o comando não tivesse sido interpretado com clareza. 

📷 Resultado do Gemini após comando em inglês

📷 Banana não respondeu ao novo comando

🌍 Mesmo comando, nova conversa e idioma diferente

Dessa vez, usei as mesmas imagens e os mesmos pedidos. Coloquei o homem de óculos com barba e a personagem de cabelo rosa, e pedi novamente para o Banana executar as edições. Só que agora fiz isso em uma nova conversa e escrevi os comandos em inglês.

O resultado foi diferente do que vimos antes. O Banana conseguiu realizar as duas tarefas sem dificuldade. Ele removeu a barba do homem e colocou a personagem na praia, mantendo a identidade visual que tinha perdido no teste anterior.

📷 Banana finalmente conseguiu tirar a barba


📷 Personagem foi para a praia sem perder o rosto original


Esse comportamento mostra que o modelo ainda depende bastante da forma como o comando é escrito e de como ele foi treinado. Por isso, aqui vai uma dica importante.

Se você está usando qualquer modelo de IA para gerar ou editar imagens e ele não entende o que você pediu, tente escrever o comando em inglês. Mesmo que o restante da conversa esteja em português, só o prompt em inglês já pode resolver.

Você pode usar o Google Tradutor ou outro serviço de tradução se não tiver segurança. A maioria desses modelos foi treinada inicialmente em inglês, então é comum que entendam melhor esse idioma. Com o tempo, é provável que o Nano Banana e outros modelos mais avançados passem a compreender melhor comandos em português também.

No fim das contas, testar o Nano Banana e o Gemini lado a lado mostra que essas IAs estão evoluindo rápido, mas ainda têm seus limites. Saber dar o comando certo, no idioma certo, pode ser o detalhe que separa uma imagem falhada de um resultado impecável. E a melhor forma de aprender é testando.

Leia mais:

NotebookLM ganha resumos em vídeo e áudio em 80 línguas

Governo do Reino Unido desistiu de dar ChatGPT grátis à população

Hospital usa dois robôs para retirar tumor e salvar voz de jovem

Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: