Nando
CEO | FOUNDER

A promessa da imagem gerada por IA sempre foi simples de vender: qualidade alta, produção rápida e mais acessível. O problema é que, quando o assunto é gente, o olho humano não perdoa. Ele identifica o que está errado antes mesmo de você conseguir explicar.
A tal “pele de plástico” virou um dos sinais mais claros de onde essa promessa começa a falhar.

Para quem trabalha com criação, direção de arte, publicidade ou conteúdo visual, isso vai além de estética. É credibilidade. É o ponto em que a imagem deixa de convencer, mesmo quando todo o resto parece certo.
E talvez o mais curioso seja perceber que isso não é um defeito pontual de ferramenta, mas um comportamento de base, já que os modelos tendem a suavizar, limpar e corrigir em excesso. Nesse processo, também acabam removendo justamente os detalhes que fazem a pele parecer viva.
No fim, o que sobra é uma imagem tecnicamente impecável e estranhamente artificial, resultado de um excesso de perfeição que joga contra o próprio realismo que esses modelos prometem entregar.
Por que a pele gerada por IA parece plástica
A IA foi treinada para tratar imperfeições como erro
A imagem que a IA gera não surge pronta. Ela vai sendo construída aos poucos, a partir de uma base que começa sem forma definida. Ao longo desse processo, o modelo vai “limpando” o que considera excesso até chegar a uma imagem coerente. Essa etapa é conhecida como denoising e é justamente aí que começa o problema.
Poros, linhas finas, sardas, variações de tom e até a penugem da pele são detalhes muito sutis na imagem. Para o modelo, eles se parecem com imperfeições, então ele remove.

O resultado é uma pele mais lisa do que deveria, porque tudo aquilo que dá textura e vida foi tratado como exagero.
Agora junte isso ao tipo de imagem com que esses modelos foram treinados. A maior parte das imagens humanas disponíveis em bases de dados vem de bancos de fotos com retoques pesados e campanhas publicitárias com filtros de beleza agressivos. O modelo "aprendeu" que pele humana ideal é uma superfície uniforme, sem irregularidades. Então ele te entrega exatamente isso.
O problema da luz na pele gerada por IA
A pele humana não funciona como uma superfície opaca. A luz não bate e volta. Ela entra, se espalha pelas camadas internas e depois sai de novo, criando aquele brilho sutil que a gente associa a uma pele viva.

Esse comportamento é conhecido como espalhamento de subsuperfície (subsurface scattering) e é um dos pontos mais difíceis para modelos generativos simularem com precisão.
Quando esse comportamento de luz não está presente, a pele gerada por IA perde profundidade. Ela pode ficar opaca demais, com aparência de argila, ou apresentar um brilho superficial que lembra cera ou material sintético. Em ambos os casos, falta algo essencial: a sensação de que existe naturalidade ali.
O resultado é uma superfície que responde à luz como plástico, não como pele de verdade.
A imagem até pode parecer correta, mas o cérebro humano não compra.
Por que o “quase real” incomoda mais

Em 1970, o pesquisador Masahiro Mori descreveu um fenômeno que continua atual, o chamado Vale da Estranheza. A ideia é que quanto mais uma representação artificial se aproxima do humano sem chegar lá por completo, mais desconforto ela provoca.
Uma ilustração estilizada não incomoda. Um rosto quase humano, com algo fora do lugar, sim. Esse efeito fica ainda mais evidente nas imagens geradas por IA.
Quando a imagem acerta os olhos, a iluminação e a composição, mas falha na pele, o cérebro percebe de cara a inconsistência, e isso causa estranhamento.
O problema não é o erro isolado, mas o contraste entre aquilo que funciona e o que falha. O olho reconhece que tem algo fora do lugar, mesmo sem conseguir apontar exatamente o quê.
O resultado é um desconforto sutil em quem olha, mas suficiente para quebrar a “confiança” na imagem, exatamente o oposto do que qualquer campanha pretende provocar.
Se é nos detalhes que a ilusão quebra, é nos detalhes que o controle precisa acontecer. E cada ferramenta faz isso de um jeito.
Como controlar a textura de pele no Midjourney
O Midjourney tem uma tendência interna de embelezamento automático que em alguns casos trabalha contra o realismo de pele. Ele tende a polir a textura até deixar tudo "esteticamente agradável" dentro do padrão que aprendeu, o que significa: sem poros, sem assimetria e sem “falhas” naturais.
O parâmetro que você não pode ignorar: --style raw
O parâmetro --style raw desativa essa camada de estilização automática. Com ele, o Midjourney para de “finalizar” a imagem por conta própria e entrega algo mais próximo de uma captura crua, com textura, irregularidade e menos interferência estética.
É um ajuste simples e, ao mesmo tempo, um dos mais subestimados.
Na prática, ele costuma ser a diferença entre um retrato que parece tratado para campanha e um que começa a se aproximar de uma fotografia real.

Importante: o --style raw não resolve sozinho o problema da pele, mas com ele você abre caminho para chegar lá.
Como escrever prompts para textura de pele real
Para combater o efeito “cera” no Midjourney, o prompt precisa ser específico. Não adianta pedir “pele realista”. É preciso descrever o que essa pele tem.
Alguns termos funcionam de forma consistente:
Textura de pele
visible skin pores
natural skin texture
unretouched photo
hyper-detailed skin
epidermal texture
Microdetalhes e penugem
peach fuzz
fine facial hair catching light
subtle freckles
Referência de câmera e lente*
Canon EOS R6 II
85mm f/1.8
Leica SL2
APO-Summicron 90mm f/2
high micro contrast
Iluminação que revela textura
soft window light
rembrandt lighting
side lighting
Negativos (limitações para IA)
no beauty filter
no plastic skin
no smoothing
no AI glow
*A referência de câmera e lente não está ali por estética. Ela orienta o modelo a simular o comportamento óptico daquele equipamento. Isso inclui profundidade de campo, contraste e a forma como os detalhes aparecem nos planos mais próximos. Uma lente macro, por exemplo, força o modelo a entrar em um nível de detalhe que ele normalmente evitaria.
Leia também: 6 formas de usar Style Reference no Midjourney para consistência visual em imagens com IA
Como editar pele com precisão no Nano Banana
O Nano Banana funciona de forma diferente da maioria das ferramentas.
Em vez de apenas gerar imagens a partir de padrões visuais, ele interpreta melhor o contexto da cena e responde bem a instruções mais específicas. Isso permite ajustes mais controlados, especialmente em imagens realistas.
Na prática, ele tende a errar menos na estrutura do rosto e mantém melhor a consistência da pele quando você precisa fazer correções.
Editar a pele sem precisar refazer a imagem

Uma das funções mais úteis do Nano Banana para esse problema é a edição localizada por texto. Você não precisa selecionar manualmente a área, basta descrever o que quer ajustar.
Por exemplo:
“remova as rugas sob os olhos, mas mantenha a textura dos poros nas bochechas”
A ferramenta identifica cada região e aplica a mudança exatamente onde foi pedido. Isso significa que uma imagem com composição boa e rosto bem construído, mas com pele lisa demais em alguns pontos, pode ser corrigida sem a necessidade de gerar tudo de novo. Você ajusta só o que precisa, sem correr o risco de perder o que já estava funcionando.
Como escrever prompts que funcionam no Nano Banana
O Nano Banana responde melhor a instruções mais estruturadas. Você não precisa ser técnico demais, mas precisa ser claro sobre o que quer manter e o que quer mudar.
Para textura de pele, alguns termos funcionam bem:
Base de realismo
documentary-grade realism
natural skin tones
visible micro-details
Aspecto da pele
natural skin oiliness
soft realistic sheen on the forehead
Esses termos ajudam o modelo a sair da estética de banco de imagem e chegar mais perto de um visual natural.
Leia também: Edição pontual em imagens de IA: como corrigir aquele detalhe sem precisar gerar tudo do zero
Seedream: como gerar pele mais realista com luz mais natural
O Seedream segue um caminho um pouco diferente. Em vez de compensar a falta de realismo com ajustes no prompt ou correções depois, ele resolve parte do problema na base. O modelo foi construído com foco maior na forma como materiais e luz se comportam e isso aparece direto na pele.
Nas versões mais recentes, o Seedream consegue simular melhor como a luz atravessa e reage às camadas da pele. Isso reduz aquele aspecto opaco ou plastificado que aparece com frequência em outros modelos.

Quando a pele responde melhor à luz
O principal diferencial do Seedream está na forma como ele lida com a luz.
Ele entende melhor como diferentes superfícies respondem à iluminação, incluindo materiais translúcidos como a pele. Isso muda completamente a leitura da imagem.
A luz deixa de bater e voltar de forma superficial e passa a atravessar, se espalhar e retornar com mais naturalidade. É esse comportamento que dá à pele aquele aspecto mais vivo.
Na versão 5.0, isso vem acompanhado de melhorias na anatomia e no nível de detalhe. Pequenas variações de tom aparecem com mais naturalidade, e até fios de cabelo individuais passam a reagir melhor à luz da cena.
Para quem precisa de um resultado mais realista desde a geração, isso reduz bastante a necessidade de correção posterior.
Como manter a textura de pele consistente entre imagens
Um problema comum no trabalho com pele em IA é a inconsistência: sardas aparecem e desaparecem, a tonalidade varia entre uma imagem e a próxima e a textura não se mantém.
O Seedream resolve parte disso permitindo o uso de várias imagens de referência ao mesmo tempo, o que funciona como uma âncora.
Você define um padrão de pele em uma imagem e usa esse material para guiar as próximas gerações. O modelo passa a respeitar características específicas, como uma cicatriz, um conjunto de sardas ou uma variação de tom.
Para campanhas ou projetos em que o mesmo personagem precisa aparecer em diferentes cenas, isso deixa de ser um problema técnico e passa a ser um fluxo viável.
Leia também: 3 técnicas para manter um personagem consistente em 20+ cenas geradas com IA
Conclusão: humanizar é uma tarefa que começa antes do prompt
A pele plastificada em imagens de IA não é um erro que vai desaparecer com a próxima versão de modelo. É um efeito direto de como esses sistemas foram construídos: feitos para remover ruído, treinados em imagens retocadas e ainda limitados na forma como simulam a luz em superfícies naturais. Cada avanço melhora o resultado, mas o comportamento de base continua ali.
Humanizar uma imagem passa por ir na direção oposta do que o modelo faria sozinho. Significa escolher parâmetros que reduzem o embelezamento automático, escrever prompts que descrevem imperfeições com precisão e usar ferramentas que tratam melhor o reconhecimento da luz desde a geração.
No fim, o que convence não é a perfeição. São os poros, a assimetria, a variação de tom entre uma área e outra do rosto. São esses detalhes que fazem a imagem parecer real. E é por isso que, no trabalho com IA, credibilidade não vem de limpar mais, mas de saber o que precisa ser trazido de volta.
Esse saber ajuda a montar prompts melhores, mas não está nos comandos em si. Está no repertório que você usa para escrever, com referências de mundo, de cultura e de corpo que o criativo por trás da ferramenta domina e consegue traduzir em linguagem que o modelo entende.
É essa bagagem que transforma um ajuste técnico em intenção estética. E ela vai além da pele: o mesmo raciocínio aparece sempre que a IA simplifica o que deveria ter nuance, seja em expressões culturais ou em referências regionais.
Nesse conteúdo ampliamos essa ideia para o cenário nacional, explorando técnicas de como 'abrasileirar' a IA. Vale a pena conferir.




