A nova onda de novelas e vídeos criados artificialmente que trazem, inclusive, frutas humanizadas no centro da narrativa, vêm ganhando espaço não só nas redes sociais, mas também nas manchetes de veículos de comunicação. Ao mesmo tempo em que GenAI se mostra uma aliada para o entretenimento, ela também vem sendo amplamente utilizada de forma desonesta e em larga escala para aplicar golpes e veicular anúncios fraudulentos.
Segundo dados do Panorama da Desinformação no Brasil, estudo inédito do Observatório Lupa, a divulgação de conteúdos falsos criados com inteligência artificial mais do que triplicou entre 2024 e 2025 no Brasil, apresentando um crescimento de 308%.
A pesquisa revela que, em 2024, a IA era usada majoritariamente para a criação de golpes digitais, como deepfakes de famosos fazendo propaganda para sites fraudulentos. Já em 2025, a tecnologia passou a ser empregada de forma estratégica como arma política: quase 45% dos conteúdos tinham viés ideológico, o que acende um alerta para as possíveis consequências geradas nas eleições presidenciais de 2026, no Brasil.
Além de escalar em volume, os golpes também ficaram mais difíceis de identificar. Se antes os criminosos se entregavam por mensagens mal escritas ou informações claramente incorretas, hoje a IA confere uma aparência quase profissional às fraudes, e ainda permite que sejam disparadas em massa, com diferentes variações de um mesmo golpe sendo testadas em tempo real. É como se houvesse milhares de experimentos simultâneos para descobrir qual versão engana melhor.
O estudo do Observatório também mostrou que o uso do WhatsApp para difundir desinformação caiu quase 50% no período, o que não significa que conteúdos falsos deixaram de circular na plataforma, mas sim que há agora uma maior dispersão entre diferentes redes sociais.
Os golpes mais comuns
Criminosos frequentemente usam a tecnologia para criar vídeos falsos com a imagem e a voz de figuras públicas e de credibilidade. Um caso recente foi o uso da imagem do Dr. Drauzio Varella e do jornalista Wiliam Bonner para indicar suplementos que supostamente eliminariam problemas no joelho, artrite e hérnia de disco. Este não foi o primeiro nem o último caso envolvendo o médico, que já precisou se manifestar nas próprias redes sociais para desmentir os conteúdos.
“Infelizmente não vai acabar e até vai piorar com a inteligência artificial. Eles chegam a imitar minha voz, eu defendendo um remédio qualquer”, afirmou Varella em uma publicação de 2023, antes mesmo de a IA alcançar a precisão que tem hoje. A promoção de suplementos alimentares e medicamentos milagrosos falsos não é novidade na internet: vídeos manipulados são veiculados na internet há vários anos, com promessas de resultados impossíveis de forma rápida. A IA só amplificou a mensagem.
Segundo dados do Anuário Brasileiro de Segurança Pública, em um período de seis anos, o índice de roubos de todo tipo teve queda de 51% no país, enquanto os crimes na internet aumentaram 408%.
Segundo Paulo Aguiar, consultor de IA e cofundador da CR_IA, o uso da inteligência artificial tornou os golpes mais sofisticados: hoje é possível clonar vozes para simular pedidos de ajuda de familiares e amigos, além de criar deepfakes de autoridades para cobrar taxas e solicitar dados sensíveis.
Há ainda as vagas de emprego inexistentes, que exigem o pagamento de uma taxa simbólica via Pix para a inscrição. Com a IA, todo o processo de “contratação” pode ser automatizado, tornando o golpe escalável e ainda mais convincente.
Aguiar menciona posts que divulgam e-book e cursos criados de forma completamente artificial. “Existem centenas de perfis de padres, monges e rabinos propagando sabedoria espiritual e te vendendo e-books que obviamente foram gerados por IA. E esses posts não identificam que são personagens feitos artificialmente”, conta. Neste caso, os golpistas mexem com algo mais subjetivo, mas igualmente perigoso: a espiritualidade e saúde mental. Aguiar acrescenta, no entanto, que o conceito de golpe fica mais incerto. “É meio subjetivo, porque se você pagou R$ 39 em um e-book gerado por IA de um monge falso, mas você tá satisfeito, então ok.”
Outro caso comum inclui até mesmo alimentos em aplicativos de delivery, como iFood. Recentemente, restaurantes começaram a ilustrar seus pratos e marmitas com imagens criadas por IA — o conteúdo do prato era o mesmo, mas a aparência? Completamente diferente. Apesar de a prática não ser proibida na plataforma, a repercussão dos casos foi negativa, levantando questões sobre a violação dos direitos do consumidor.
É quase uma profissionalização do crime: organizações pagam por softwares avançados, criam operações complexas e desenvolvem roteiros completos de golpe, tornando cada vez mais difícil para o consumidor identificar uma fraude.
Como identificar conteúdos fraudulentos?
Aguiar utiliza seus perfis nas redes sociais para falar sobre inteligência artificial, dando dicas para que usuários possam se blindar de golpes e produtos falsos. Em entrevista à Forbes Brasil, ele compartilhou algumas técnicas de detecção de conteúdo gerado artificialmente.
Desconfie da perfeição ou de propostas boas de mais para serem verdade
“Todos esses produtos de IA têm uma promessa muito incrível ou foram feitos de uma maneira impressionante. O primeiro passo é desconfiar desse absurdo. Do ponto de vista mais técnico, apesar dos modelos de imagem e vídeo estarem muito avançados, ainda é possível perceber alguns detalhes. A maioria desses conteúdos falham um pouquinho na hora de criar textura de cabelo; as imagens tendem a ter um tom um pouquinho mais amarelado e detalhes como espaço entre os dedos ou óculos tendem a ter inconsistências. Tecnicamente falando, é o jeito mais eficiente de identificar.”
Sem preguiça: entre no perfil e investigue os conteúdos
“Um perfil fraudulento tende a ter conteúdos com a mesma luz, mesma cara e mesma cor, algo que é praticamente impossível para um perfil real. Por exemplo, aqueles vídeos populares que mostram bolas de sabão coloridas: quando você entra no perfil tem mais de 400 vídeos iguais, que parecem ter sido filmados com a mesma câmera e no mesmo quarto. Ninguém consegue ter essa consistência.”
De olho nos comentários
“Se você olhar os comentários, principalmente dos vídeos virais, sempre tem alguém falando que é IA. Então, precisamente no ponto de vista de produto, antes de comprar, dê uma olhada no perfil e entre nos comentários dos posts, porque vai ter alguém falando algo.”
A lógica por trás das fraudes continua a mesma, e a desconfiança segue sendo a melhor arma para não cair nelas.
O especialista também comenta sobre mudanças na forma como plataformas irão veicular conteúdos criados por IA. Enquanto a Meta e o TikTok, por exemplo, estudam medidas regulatórias e formas de identificar esses conteúdos, vídeos sintéticos ganham cada vez mais visibilidade nas redes sociais, engajando um público que tem prazer em consumí-los.

“Estamos passando por um momento sem precedentes e nós não sabemos como as pessoas vão reagir a tudo isso. Têm pessoas incomodadas, mas outras gostam desses vídeos [criados por IA]. As novelas de frutas, do Abacatudo por exemplo, estão em todo lugar e nós acabamos vendo. Acredito que, inevitavelmente, as plataformas vão ter que criar esses filtros de IA, porque o volume vai ser muito grande e uma parcela da população vai rejeitar esses conteúdos”, afirma.
Empresas na mira da responsabilização
Segundo a Reuters, a Meta estima que 10% de sua receita de 2024 (o equivalente a US$ 16 bilhões) vieram de anúncios fraudulentos. Em fevereiro deste ano, a empresa anunciou medidas legais para combater golpes veiculados em anúncios no Brasil, na China e no Vietnã, responsabilizando judicialmente os envolvidos e investindo em ferramentas de detecção e remoção rápida de conteúdo suspeito.
A empresa afirma que, no Brasil, o combate a golpes on-line é uma prioridade. Só em 2025, removeu 159 milhões de anúncios fraudulentos, 92% deles antes mesmo de serem denunciados por usuários. O Google, por sua vez, afirma ter removido 201 milhões de anúncios em 2024 e suspendido 1,3 milhão de contas de anunciantes.
“A plataforma está ali para hospedar nosso conteúdo de forma gratuita e distribuir ele para as pessoas que interessam, então ela deveria ser mais responsabilizada pelo que está lá”, afirma Aguiar. Ele ainda acrescenta que o mesmo filtro que proíbe publicações com nudez e monetização em vídeos com música deveria ser aplicado para produtos criados artificialmente. “Os posts precisam de uma marcação muito maior do que aquele label de ‘gerado por IA’, ele vai precisar ter um contorno ou algum símbolo para que todo mundo saiba”, acrescenta.
O vazio regulatório
Durante a CPI do Crime Organizado no Senado, a Meta foi questionada sobre possíveis ganhos econômicos com atividades ilícitas e sobre os limites da criptografia de ponta-a-ponta. A investigação é mais um reflexo da dificuldade tanto das autoridades quanto das big techs de combater o crescimento dos golpes na velocidade em que acontecem.
As leis não acompanham o ritmo da tecnologia, e ainda não está claro como, nem quem, será responsabilizado pelos casos. Em 2025, foi aprovado o PL 2.338/23, conhecido como Marco Legal da IA, um projeto que regulamenta o uso da inteligência artificial no Brasil, prevendo que empresas e aplicativos de IA generativa sejam previamente avaliados por desenvolvedores e aplicadores para identificar riscos e possíveis impactos.
O que o futuro reserva?
Dizer que no futuro não será mais possível identificar a IA é um erro: não se trata de um futuro, e sim de um presente bem palpável. Com o lançamento do Seedance 2.0, um novo modelo chinês capaz de gerar vídeos em qualidade cinematográfica, espera-se um crescimento grande de conteúdos quase perfeitos criado artificialmente. “Ele é melhor que todos os modelos atuais, pois tem um nível de realismo impressionante. A questão é que antes estava bem restrito e era bem caro, só podia ser acessado com VPN. Hoje, ele já entrou em algumas plataformas de forma ilimitada”, afirma Aguiar.
Para o executivo, os próximos passos do cibercrime incluem influenciadores criados artificialmente, com perfis repletos de conteúdos sintéticos — algo que já vem acontecendo –, e deepfakes em tempo real, o que abre janela para uma nova geração de golpes muito mais complexos. “Acredito que vamos ver muitos deepfakes em ligações, com pessoas fazendo real-time deepfake de voz e de imagem em um nível perfeito. Hoje em dia essa possibilidade já existe, mas é cara e lenta. Acredito que em um ou dois anos vai ser imperceptível. Você vai entrar em uma chamada para falar com o seu gerente do banco ou seu advogado, mas não é uma pessoa real.”
Enquanto as plataformas tentam encontrar formas de reter a avalanche de conteúdos falsos, empresas de tecnologia vêm estudando formas de aprimorar a própria IA para combater e identificar golpes gerados artificialmente, de forma a detectar deepfakes e reconhecer padrões de fraude.