Redação do Site Inovação Tecnológica - 03/07/2025
Marca d'água semântica
Se você confia nas marcas d'água - marcadores visíveis ou invisíveis incorporados em arquivos de imagem - para checar se uma imagem é gerada por inteligência artificial ou não, é melhor procurar por novos modos de autenticação.
"Nós demonstramos que invasores podem falsificar ou remover completamente marcas d’água semânticas usando métodos surpreendentemente simples," disse Andreas Müller, da Universidade Ruhr de Bochum, na Alemanha.
As chamadas marcas d'água semânticas, que ficam profundamente inseridas no próprio processo de geração de imagens, vinham sendo consideradas especialmente robustas e difíceis de remover. Mas a equipe revelou falhas fundamentais de segurança nas técnicas de geração dessas marcas d'água supostamente resilientes.
Os pesquisadores descobriram duas estratégias de ataque. O primeiro método, chamado ataque de impressão, atua no nível de representações latentes, ou seja, a assinatura digital subjacente de uma imagem na qual os geradores de imagens de IA trabalham. A representação oculta de uma imagem real - sua estrutura digital subjacente, por assim dizer - é deliberadamente modificada para se assemelhar à de uma imagem contendo uma marca d'água.
Isso possibilita a transferência da marca d'água para qualquer imagem real, mesmo que a imagem de referência tenha sido originalmente gerada exclusivamente por IA. Um invasor pode, portanto, enganar um provedor de IA fazendo com que qualquer imagem pareça ter marca d'água - e, portanto, gerada artificialmente -, efetivamente fazendo com que imagens reais pareçam falsas.
"O segundo método, o ataque de recomando, explora a capacidade de retornar uma imagem com marca d'água ao espaço latente e, em seguida, regerá-la com um novo comando. Isso resulta em imagens arbitrárias recém-geradas que carregam a mesma marca d'água," explicou o professor Erwin Quiring.
Sem defesas
Para piorar, ambos os ataques requerem apenas uma única imagem de referência contendo a marca d'água alvo; podem ser executados em diferentes arquiteturas de modelo; e funcionam tanto para sistemas legados baseados em UNet quanto para transformadores de difusão mais recentes. Essa flexibilidade entre modelos torna as vulnerabilidades especialmente preocupantes.
Segundo os pesquisadores, as implicações dessa vulnerabilidade são de longo alcance: Atualmente, não existem defesas eficazes contra nenhum dos ataques. "Isso questiona como poderemos rotular e autenticar com segurança o conteúdo gerado por IA daqui para frente," disse Müller, acrescentando que a abordagem atual para a marca d'água semântica deve ser fundamentalmente repensada para garantir confiança e resiliência a longo prazo.
![]() |
![]() |
![]() |
![]() |