No início de abril de 2026, um relatório circulou silenciosamente entre os conselhos de administração dos maiores bancos brasileiros: fraudes digitais com inteligência artificial superaram R$ 10 bilhões em perdas acumuladas. Não é o número total de fraudes bancárias no Brasil — esse já ultrapassa R$ 60 bilhões anuais, segundo dados da CISO Advisor. É especificamente o montante associado a golpes que utilizam IA como arma: deepfakes, clonagem de voz, falsificação de biometria e engenharia social automatizada. O Brasil é o primeiro colocado no ranking global de perdas por roubo de identidade, e a sofisticação dos ataques subiu de nível.
A velocidade do problema é o dado mais perturbador. No primeiro semestre de 2025, a Serasa Experian registrou 6,9 milhões de tentativas de fraude no país — uma a cada 2,3 segundos, das quais 53,7% foram dirigidas a bancos e emissores de cartões. Em paralelo, relatórios internacionais apontam crescimento superior a 800% no uso de deepfakes para golpes financeiros entre 2024 e 2026. O ataque não é mais o hacker solitário: é operação industrializada, com modelos de IA acessíveis no mercado negro digital.
O ataque: como os criminosos estão usando IA
A fronteira da fraude com IA está em três categorias principais. A primeira é a clonagem de voz: usando amostras de áudio de apenas 3 a 5 segundos — capturadas de redes sociais, vídeos públicos ou gravações de atendimento — modelos generativos constroem réplicas de voz praticamente indistinguíveis do original. Golpistas ligam para vítimas ou para funcionários de bancos fingindo ser o cliente, o gerente ou até o CEO da empresa.
A segunda categoria é o deepfake de imagem e vídeo, usado principalmente para fraudar processos de onboarding digital — a abertura de contas e a validação de identidade por câmera. Criminosos usam faces geradas por IA ou manipulações de vídeo em tempo real para enganar sistemas de liveness detection, que verificam se a pessoa na câmera é real. Estimativas apontam que deepfake e biometria fraudada podem causar prejuízo de R$ 4,5 bilhões até o final do ciclo atual.
A terceira categoria é a engenharia social automatizada: chatbots e voicebots sofisticados que simulam atendentes bancários, criam urgência falsa e conduzem vítimas a autorizar transferências. A escala é o diferencial — um único modelo pode operar milhares de conversas simultâneas, personalizadas com dados vazados de CPF, endereço e histórico bancário.
A resposta: IA contra IA
Diante desse cenário, o setor bancário brasileiro está escalando seu investimento em tecnologia de forma sem precedentes. O orçamento total em tecnologia do setor deve alcançar R$ 47,8 bilhões em 2026, crescimento de 13% sobre o ano anterior. E a IA está no centro da defesa, tanto quanto está no centro do ataque.
O Serpro, em parceria com bancos e apresentado no Congresso de Prevenção e Repressão a Fraudes da Febraban, demonstrou um sistema de dupla camada de liveness: um motor certificado pela ISO 30107-3 e validado em laboratório internacional, combinado com um motor proprietário de detecção de deepface gerado por IA. O sistema analisa micro movimentos faciais em múltiplos frames, identifica artefatos de geração sintética e valida a autenticidade de forma invisível ao usuário legítimo.
Além da biometria, bancos estão investindo em análise comportamental — o que a Febraban chama de “identidade digital”. O sistema mapeia como o usuário segura o telefone, a pressão dos toques, o ritmo de digitação, os padrões de navegação. Qualquer desvio significativo em relação ao perfil histórico aciona alertas em tempo real. É autenticação contínua, não apenas no login. Oitenta por cento dos bancos já implementam casos de uso de IA para detecção de fraude e lavagem de dinheiro — e esse percentual está crescendo.
O que a Febraban projeta para o setor
O relatório de Tecnologias Emergentes para o Setor Bancário 2025 da Febraban identifica quatro pilares da próxima geração de serviços financeiros: IA para desenvolvimento de software, agentes de IA autônomos, computação quântica e identidade digital com biometria avançada. Todos têm implicações diretas para a batalha antifraud.
O mais transformador a curto prazo é o de agentes de IA autônomos no contexto de segurança: sistemas que monitoram transações em tempo real, identificam padrões suspeitos em milissegundos, bloqueiam operações automaticamente e se adaptam a novos padrões de ataque sem necessidade de reprogramação manual. A velocidade de resposta — que antes era medida em horas de investigação humana — passa a ser medida em microsegundos de inferência computacional.
A IA generativa também está sendo apontada como vetor de eficiência operacional: um estudo da Febraban projeta ganho de até 35% na eficiência dos bancos com adoção ampla de IA generativa em processos internos, incluindo compliance e monitoramento de riscos.
O que isso exige dos gestores de risco e tecnologia
A batalha antifrude com IA não é mais apenas problema do time de segurança — virou agenda de C-level. Quando R$ 10 bilhões em perdas têm origem em ataques de IA, e quando o orçamento de tecnologia representa dezenas de bilhões por ano, as decisões de arquitetura de segurança têm implicações de resultado que aparecem no P&L.
O primeiro passo para gestores é revisar os controles de liveness e autenticação biométrica — verificando se os fornecedores atuais têm certificação específica para detecção de deepfakes gerados por IA generativa de última geração, não apenas para fraudes mais antigas. O segundo passo é implementar análise comportamental contínua, não apenas pontual no momento do login. O terceiro é revisar os protocolos de atendimento humano — porque muitos dos maiores golpes não enganam a máquina, enganam o funcionário.
A corrida armada entre fraude e defesa vai continuar acelerando. A vantagem do defensor hoje está na velocidade de adaptação e na qualidade dos dados comportamentais históricos — que os criminosos, por definição, não têm acesso. Quem investe nisso agora cria um fosso que os atacantes vão demorar para cruzar.




