
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
Com a entrada em vigor das disposições da Lei de IA da UE em agosto de 2025 — e com as obrigações de conformidade total se estendendo até 2026 — um novo e complexo problema está surgindo para os líderes de tecnologia na Europa e em outros continentes. Os sistemas de IA agéticos, que executam tarefas complexas de forma autônoma em ambientes corporativos, estão expondo profundas lacunas de governança que as estruturas de conformidade existentes nunca foram projetadas para abordar.
As consequências são enormes. Organizações que implementam esses agentes autônomos podem enfrentar multas de até € 35 milhões ou 7% do faturamento anual global pelas violações mais graves. E a realidade incômoda é que muitas empresas atualmente não têm uma maneira confiável de explicar o que seus agentes de IA estão fazendo, muito menos de provar que essas ações são legais.
Ao contrário dos modelos tradicionais de IA que respondem a um único comando e produzem uma única saída, os sistemas de IA com agentes operam com um grau de independência que altera fundamentalmente o cálculo de risco. Esses agentes podem mover dados entre plataformas, iniciar transações, comunicar-se com APIs externas e encadear sequências de decisões — frequentemente com supervisão humana mínima em cada etapa.
Essa autonomia é precisamente o que as torna valiosas. Empresas como Salesforce, Microsoft e Google fizeram apostas significativas em arquiteturas de agentes nos últimos dezoito meses. A plataforma Agentforce da Salesforce, os agentes Copilot da Microsoft e os agentes de IA Vertex do Google prometem automatizar fluxos de trabalho empresariais complexos que antes exigiam intervenção humana em todas as etapas.
Mas eis o desafio de governança: quando um agente toma uma decisão importante — por exemplo, rejeitar um pedido de indenização de seguro, priorizar os dados médicos de um paciente ou sinalizar um funcionário para avaliação de desempenho — a organização que o implementou precisa de um registro completo de auditoria. Quem autorizou o escopo de ação do agente? Quais dados embasaram a decisão? Houve supervisão humana significativa? De acordo com os requisitos da Lei de IA da UE para sistemas de alto risco, essas perguntas não são opcionais. Elas são legalmente obrigatórias.
A Lei de IA da UE categoriza as aplicações de IA em níveis de risco, e as obrigações mais rigorosas recaem sobre os casos de uso de alto risco — incluindo decisões de emprego, avaliação de crédito, aplicação da lei, gestão de migração e infraestrutura crítica. Para uma compreensão mais aprofundada dessas categorias, consulte nossa visão geral de 5 Arquiteturas de Computação de IA que Todo Engenheiro Deve Conhecer em 2025 .
Eis o que as organizações que implementam sistemas de agentes nesses domínios devem demonstrar:
O problema é que muitas implementações de IA com agentes confundem as linhas de responsabilidade. Quando um agente orquestra ações em vários sistemas — extraindo dados de um banco de dados, executando inferências em outro modelo e enviando um resultado para um terceiro aplicativo — a cadeia de decisão torna-se opaca. Mesmo os engenheiros que construíram o sistema podem ter dificuldade em reconstruir a lógica precisa por trás de um resultado específico.
Os líderes empresariais têm a responsabilidade final pelos sistemas que implementam, independentemente do grau de autonomia que esses sistemas alcancem. Este é um princípio que a Lei de IA da UE reforça explicitamente. Os responsáveis pela implementação de sistemas de IA de alto risco — e não apenas os desenvolvedores — têm obrigações substanciais de conformidade.
No entanto, uma pesquisa da McKinsey do início de 2025 constatou que, embora 72% das organizações tivessem adotado alguma forma de IA em suas operações, menos da metade havia implementado estruturas formais de governança para essas implementações. Para sistemas de agentes especificamente, a lacuna provavelmente é ainda maior, visto que muitas empresas ainda estão em fases de teste e tratam a governança como um problema a ser resolvido posteriormente.
Essa abordagem está se tornando rapidamente insustentável. Analistas do setor alertam que as organizações precisam tratar a governança de agentes de IA com o mesmo rigor que aplicam aos controles financeiros ou à proteção de dados sob o GDPR. Se você não pode auditar, não pode defender — e os órgãos reguladores eventualmente virão cobrar.
Diversas vozes proeminentes na política de IA têm apontado os sistemas de agentes como um ponto cego regulatório. Pesquisadores do Instituto Ada Lovelace argumentam que as estruturas de governança de IA existentes pressupõem uma relação relativamente estática entre entrada e saída — uma premissa que se desfaz quando os agentes encadeiam múltiplas decisões autônomas ao longo do tempo.
A Gartner, por sua vez, previu no final de 2024 que, até 2028, pelo menos 15% das decisões empresariais diárias seriam tomadas autonomamente por agentes de IA — um aumento significativo em relação a praticamente zero em 2023. Essa trajetória sugere que o problema de governança só se intensificará à medida que a implementação se expandir.
Para os líderes de TI, a mensagem é clara: esperar que as diretrizes regulatórias se tornem prescritivas antes de agir é uma estratégia fadada ao fracasso. A Lei de IA da UE estabelece amplas obrigações, e caberá às organizações demonstrar que as cumpriram por meio de práticas de governança documentadas e defensáveis. Os interessados em construir programas robustos de supervisão de IA devem explorar nosso guia sobre o Microsoft Open-Source Toolkit Secures AI Agents at Runtime (Kit de Ferramentas de Código Aberto da Microsoft Protege Agentes de IA em Tempo de Execução ).
Diversos desenvolvimentos merecem atenção especial durante o restante de 2025 e em 2026:
A IA agética representa uma das mudanças mais significativas na tecnologia empresarial desde o surgimento da computação em nuvem. Mas a mesma autonomia que torna esses sistemas poderosos também os torna difíceis de governar — e o cronograma de implementação da Lei de IA da UE não deixa espaço para complacência.
Líderes que tratam a governança como uma reflexão tardia correm o risco não apenas de sofrer penalidades regulatórias, mas também de perder a confiança de clientes, funcionários e parceiros. As organizações que prosperarão sob essas novas regras serão aquelas que incorporarem a responsabilidade em seus sistemas de atuação desde a base, em vez de adaptá-la posteriormente, após uma crise de conformidade que as obrigue a agir dessa forma.