Logo E-Commerce Brasil

Do deepfake à detecção: IA redefine o jogo da credibilidade

Por: Camilla Veiga

Head of Sales da MGID no Brasil

Atua no meio publicitário há mais de 10 anos como executiva de contas. Ao longo desses anos, desenvolveu e aprimorou técnicas de negociação, prospecção e retenção de clientes, com foco em gerar resultados e atingir metas. Possui uma visão holística do mercado, atuando desde o planejamento estratégico até a apresentação do produto, acompanhamento das etapas de venda e análise de métricas/KPIs. Passou por grandes empresas e veículos de publicidade, como Paramount e grupo FTPI (onde atuou como executiva do Spotify), tendo experiência nos mais diversos meios como revistas, cinema, metrô, shoppings, ônibus, digital, mídia programática, CTV e TV.

Ver página do autor

Nos últimos anos, a inteligência artificial passou a ocupar um lugar central no debate sobre segurança e responsabilidade na publicidade digital. A velocidade com que conteúdos são criados, distribuídos e replicados exige mecanismos de controle sofisticados e, nesse novo cenário, a IA deixa de ser apenas uma ferramenta de eficiência para se tornar também uma aliada na prevenção de fraude, ocupando um papel estrutural em estratégias de segurança, controle de qualidade e governança de campanhas.

Homem no computador com ícones digitais de IA e segurança cibernética à sua frente.
Imagem gerada por IA.

Esse novo posicionamento é impulsionado pelo o crescimento contínuo da publicidade digital como canal dominante de investimento e, ao mesmo tempo, pelo aumento da sofisticação das fraudes digitais. De acordo com o relatório This Year Next Year, da WPP, a publicidade digital deve representar 73,2% dos investimentos publicitários globais até o fim do ano, movimentando mais de US$ 1 trilhão. Em paralelo, estimativas da Juniper Research indicam que as perdas globais com fraudes digitais podem alcançar US$ 172 bilhões até 2028, com foco principal no ambiente programático, em que anúncios são comprados e veiculados automaticamente, sem curadoria editorial direta.

O uso da IA por fraudadores também evoluiu

Os números mostram que o uso da IA por fraudadores também evoluiu. Técnicas como cloaking, que exibem versões distintas de conteúdo para sistemas de verificação e usuários finais, foram amplificadas por IA generativa e por redes de bots que imitam comportamentos humanos. O resultado é um tipo de fraude difícil de detectar por métodos convencionais. Ou seja, não se trata mais apenas de anúncios de baixa qualidade, mas de campanhas completas, com páginas de destino falsas, testemunhos gerados artificialmente e simulações de vozes e imagens que visam enganar usuários e plataformas.

Essa é a fronteira em que a IA precisa atuar como antídoto da própria ameaça. É o que têm feito plataformas como a MGID, especializada em publicidade nativa, ao implementar modelos de machine learning treinados com milhões de interações históricas e dados atualizados em tempo real. Essas soluções permitem detectar comportamentos anômalos de anunciantes, bloquear campanhas com padrões associados à fraude e preservar a integridade do ambiente de mídia. Mais recentemente, essas plataformas vêm adotando a chamada moderação comportamental, que observa o histórico longitudinal de um anunciante, não apenas o conteúdo de um anúncio isolado.

IA como aliada de publishers e plataformas

Um levantamento da Statista mostra que 80% das fraudes em publicidade programática são atualmente detectadas antes da veiculação por ferramentas baseadas em IA. Isso aponta para um modelo híbrido de proteção que se consolida como o mais eficaz.

Do lado dos veículos de mídia, a IA também representa um avanço decisivo. A possibilidade de configurar filtros de segurança, parametrizar tolerância a riscos e estabelecer regras personalizadas de exibição de anúncios permite que publishers, mesmo os de menor porte, mantenham controle sobre seu inventário sem abrir mão da monetização.

A linha tênue entre inovação e ética

Mas o debate sobre IA na publicidade não se limita à detecção de fraude. Ele permeia as fronteiras da própria comunicação e levanta questões de autenticidade, ética e percepção. Casos recentes como o da personagem Marisa Maiô, criada integralmente por IA e apresentada como âncora de um programa de auditório fictício, viralizaram com alcance superior a milhões de visualizações, confundindo parte do público e despertando o interesse real de marcas.

Outro exemplo envolveu uma imagem fabricada da cantora Lady Gaga supostamente entregando pizzas no Rio de Janeiro após um show. A foto, gerada por IA, foi amplamente replicada por veículos de imprensa e redes sociais antes de ser desmentida. Embora inofensiva à primeira vista, a imagem revela a rapidez com que conteúdos sintéticos ganham credibilidade e influência.

E o episódio mais emblemático ocorreu com a campanha da DM9 para a Consul, premiada com o Grand Prix em Creative Data no festival Cannes Lions 2025. Após a premiação, descobriu-se que o vídeo do case havia sido manipulado com IA (legendas da CNN Brasil foram alteradas, falas de uma senadora norte-americana foram editadas para parecer que mencionavam São Paulo, e cenas originais foram modificadas). A agência reconheceu a falha, divulgou um pedido público de desculpas e anunciou a criação de um comitê interno de ética em IA. O próprio festival iniciou uma investigação formal sobre o caso.

Esses eventos ampliam a pressão por protocolos mais rígidos de uso da IA em campanhas publicitárias, inclusive em festivais e prêmios internacionais. Ao mesmo tempo, é necessário reconhecer que a IA continuará sendo parte essencial da inovação criativa. Sua capacidade de gerar cenários, testar mensagens, ajustar campanhas em tempo real e personalizar entregas segue sendo uma vantagem competitiva significativa.

Dessa forma, vemos que a indústria da comunicação está diante de uma escolha estratégica: continuar tratando a IA como uma vantagem meramente tática, voltada para entregas de curto prazo, ou consolidá-la como uma estrutura estratégica para proteger a credibilidade, a reputação e a legitimidade do setor.

O caminho mais sustentável é incorporar essa tecnologia como pilar de governança sem abandonar seu uso criativo ou sua eficiência operacional. O desafio, portanto, está na construção de um ecossistema em que o uso da IA seja transparente, seguro e auditável, garantindo que sua aplicação seja orientada por princípios de integridade, transparência, segurança e responsabilidade.

O caminho mais sustentável parece ser incorporar a inteligência artificial como pilar de governança. Isso não significa abandonar seu uso criativo ou sua eficiência operacional, mas garantir que sua aplicação seja orientada por princípios de integridade, transparência, segurança e responsabilidade. Quando bem calibrada, essa pode ser a principal guardiã da credibilidade do setor.