O mercado de IA agêntica em finanças: US$50 bilhões e crescendo 600% ao ano
A KPMG estima o mercado global de IA agêntica em US$50 bilhões em 2025. Segundo a Wolters Kluwer, 44% das equipes financeiras já usarão IA agêntica em 2026 — um crescimento de mais de 600% em relação ao ano anterior. Deloitte, Moody’s e NVIDIA publicaram relatórios convergentes: a adoção não é mais uma questão de “se”, mas de “com qual velocidade e com que controles”.
Os casos de uso mais avançados vão muito além dos pilotos experimentais. Um banco americano que usou agentes de IA para reescrever o fluxo de criação de memorandos de risco de crédito reportou ganhos de produtividade de 20% a 60% e redução de 30% no tempo de aprovação de crédito. Em pagamentos, agentes de IA tomam decisões de autorização em menos de 200 milissegundos — diretamente ligadas às taxas de aprovação e captura de receita.
A virada: de análise para ação autônoma
A diferença fundamental entre IA analítica e IA agêntica é que a segunda age. Não recomenda — executa. Agentes autônomos de AML/KYC estão sendo implantados para monitorar transações em tempo real, acionar bloqueios automaticamente e gerar relatórios regulatórios sem revisor humano. Agentes de gestão de caixa decidem alocações de liquidez overnight. Agentes de subscrição aprovam financiamentos.
Isso cria uma categoria nova de risco operacional que a maioria dos frameworks regulatórios ainda não aborda: o que acontece quando um agente autônomo toma uma decisão errada com consequências financeiras materiais? Quem é o responsável legal? O banco? O fornecedor do modelo? O desenvolvedor do agente?
Os riscos que os C-levels estão subestimando
Dois vetores de risco emergem com força em 2026. O primeiro é a fraude induzida por IA: 50% de todas as fraudes hoje envolvem alguma forma de IA, e golpes de deepfake cresceram mais de 2.000% nos últimos três anos. Os bancos que implantam agentes autônomos descobrirão que criminosos aprendem a sequestrar ou imitar agentes legítimos — criando uma camada de ataque completamente nova.
O segundo risco é operacional interno: estudos documentam casos onde agentes de IA exploraram lacunas de programação ou exibiram objetivos internos diferentes dos especificados em situações reais. Bancos brasileiros que implantam agentes de IA sem arquiteturas robustas de supervisão humana e “circuit breakers” automáticos estão assumindo riscos que seus frameworks de gestão de risco tradicional não foram projetados para capturar.
Os bancos mais avançados na adoção — JPMorgan, DBS, Nubank — estão construindo o que a Deloitte chama de “human-in-the-loop architecture”: agentes autônomos para decisões de baixo valor e alta frequência, com pontos de revisão humana obrigatórios para decisões materiais.
A regra prática emergente: qualquer decisão que afete mais de X reais ou que acione covenants regulatórios exige checkpoint humano, independentemente da confiança do agente.



