
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
A medida que las disposiciones de aplicación de la Ley de IA de la UE comiencen a entrar en vigor en agosto de 2025 —con la extensión de las obligaciones de cumplimiento total a 2026— surge un nuevo y complejo problema para los líderes tecnológicos de toda Europa y más allá. Los sistemas de IA agente, que ejecutan de forma autónoma tareas de varios pasos en entornos empresariales, están poniendo de manifiesto profundas deficiencias en la gobernanza que los marcos de cumplimiento existentes nunca fueron diseñados para abordar.
Lo que está en juego es enorme. Las organizaciones que implementan estos agentes autónomos se enfrentan a posibles multas de hasta 35 millones de euros o el 7 % de su facturación anual global por las infracciones más graves. Y la incómoda realidad es que muchas empresas actualmente no tienen una forma fiable de explicar qué hacen sus agentes de IA, y mucho menos de demostrar que esas acciones son legales.
A diferencia de los modelos de IA tradicionales, que responden a una sola orden y generan un único resultado, los sistemas de IA con agentes operan con un grado de independencia que transforma radicalmente el cálculo de riesgos. Estos agentes pueden transferir datos entre plataformas, iniciar transacciones, comunicarse con API externas y encadenar secuencias de decisiones, a menudo con una mínima intervención humana en cada paso.
Esa autonomía es precisamente lo que las hace valiosas. Empresas como Salesforce, Microsoft y Google han apostado fuertemente por las arquitecturas basadas en agentes en los últimos dieciocho meses. La plataforma Agentforce de Salesforce, los agentes Copilot de Microsoft y los agentes de IA Vertex de Google prometen automatizar flujos de trabajo empresariales complejos que antes requerían intervención humana en cada etapa.
Pero aquí radica el desafío de la gobernanza: cuando un agente toma una decisión trascendental —por ejemplo, rechazar una reclamación de seguro, priorizar los datos médicos de un paciente o señalar a un empleado para una evaluación de desempeño— la organización que lo implementa necesita un registro de auditoría completo. ¿Quién autorizó el alcance de la acción del agente? ¿Qué datos fundamentaron la decisión? ¿Hubo una supervisión humana efectiva? Según los requisitos de la Ley de IA de la UE para sistemas de alto riesgo, estas preguntas no son opcionales, sino obligatorias por ley.
La Ley de IA de la UE clasifica las aplicaciones de IA en niveles de riesgo, y las obligaciones más estrictas recaen en los casos de uso de alto riesgo, como las decisiones laborales, la calificación crediticia, la aplicación de la ley, la gestión de la migración y las infraestructuras críticas. Para comprender mejor estas categorías, consulte nuestro resumen de las 5 arquitecturas de computación de IA que todo ingeniero debe conocer en 2025 .
Esto es lo que deben demostrar las organizaciones que implementan sistemas basados en agentes en estos dominios:
El problema radica en que muchas implementaciones de IA con agentes difuminan los límites de la responsabilidad. Cuando un agente coordina acciones en múltiples sistemas —extrayendo datos de una base de datos, realizando inferencias con otro modelo y enviando el resultado a una tercera aplicación— la cadena de decisiones se vuelve opaca. Incluso los ingenieros que crearon el sistema pueden tener dificultades para reconstruir la lógica precisa detrás de un resultado específico.
Los líderes empresariales son los máximos responsables de los sistemas que implementan, independientemente de su grado de autonomía. Este principio se refuerza explícitamente en la Ley de IA de la UE. Quienes implementan sistemas de IA de alto riesgo —no solo los desarrolladores— tienen importantes obligaciones de cumplimiento.
Sin embargo, una encuesta de McKinsey realizada a principios de 2025 reveló que, si bien el 72 % de las organizaciones habían adoptado alguna forma de IA en sus operaciones, menos de la mitad habían implementado estructuras de gobernanza formales para dichas implementaciones. En el caso específico de los sistemas basados en agentes, es probable que la brecha sea aún mayor, ya que muchas empresas todavía se encuentran en fases piloto y consideran la gobernanza como un problema que se resolverá más adelante.
Ese enfoque se está volviendo rápidamente insostenible. Los analistas del sector advierten que las organizaciones deben tratar la gobernanza de los agentes de IA con el mismo rigor que aplican a los controles financieros o a la protección de datos según el RGPD. Si no se puede auditar, no se puede defender, y los reguladores acabarán exigiendo explicaciones.
Varias voces destacadas en el ámbito de la política de IA han señalado a los sistemas de agentes como un punto ciego regulatorio. Investigadores del Instituto Ada Lovelace han argumentado que los marcos de gobernanza de la IA existentes parten de la base de una relación relativamente estática entre entrada y salida, una suposición que se desmorona cuando los agentes encadenan múltiples decisiones autónomas a lo largo del tiempo.
Por su parte, Gartner predijo a finales de 2024 que, para 2028, al menos el 15 % de las decisiones empresariales diarias serían tomadas de forma autónoma por agentes de IA, frente a prácticamente cero en 2023. Esta trayectoria sugiere que el problema de la gobernanza no hará sino intensificarse a medida que aumente la escala de la implementación.
Para los líderes de TI, el mensaje es claro: esperar a que la normativa se convierta en prescriptiva antes de actuar es una estrategia perdedora. La Ley de IA de la UE establece obligaciones generales, y corresponderá a las organizaciones demostrar que las han cumplido mediante prácticas de gobernanza documentadas y justificables. Quienes estén interesados en desarrollar programas sólidos de supervisión de la IA deberían consultar nuestra guía sobre Microsoft Open-Source Toolkit para la seguridad de los agentes de IA en tiempo de ejecución .
Hay varios acontecimientos que merecen ser seguidos de cerca durante lo que queda de 2025 y en 2026:
La IA con agentes representa uno de los cambios más trascendentales en la tecnología empresarial desde la llegada de la computación en la nube. Pero la misma autonomía que hace que estos sistemas sean poderosos también dificulta su gobernanza, y el calendario de aplicación de la Ley de IA de la UE no deja margen para la complacencia.
Los líderes que consideran la gobernanza como algo secundario se arriesgan no solo a sanciones regulatorias, sino también a la pérdida de confianza de clientes, empleados y socios. Las organizaciones que prosperen bajo estas nuevas normas serán aquellas que integren la rendición de cuentas en sus sistemas operativos desde el principio, en lugar de implementarla posteriormente tras una crisis de cumplimiento normativo.