
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
Pe măsură ce prevederile de aplicare ale Legii UE privind inteligența artificială încep să intre în vigoare în august 2025 — obligațiile de conformitate deplină urmând să se extindă în 2026 — o problemă nouă și spinoasă apare pentru liderii din domeniul tehnologiei din Europa și din afara ei. Sistemele de inteligență artificială agentivă, care execută autonom sarcini în mai multe etape în medii de întreprindere, expun lacune profunde în guvernanță pe care cadrele de conformitate existente nu au fost niciodată concepute să le gestioneze.
Miza este enormă. Organizațiile care implementează acești agenți autonomi se confruntă cu amenzi potențiale de până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală pentru cele mai grave încălcări. Iar realitatea inconfortabilă este că multe companii nu au în prezent nicio modalitate fiabilă de a explica ce fac agenții lor de inteligență artificială, darămite de a demonstra că aceste acțiuni sunt legale.
Spre deosebire de modelele tradiționale de inteligență artificială, care răspund la o singură solicitare și produc o singură ieșire, sistemele de inteligență artificială agentivă funcționează cu un grad de independență care schimbă fundamental calculul riscului. Acești agenți pot muta date între platforme, pot iniția tranzacții, pot comunica cu API-uri externe și pot înlănțui secvențe de decizii - adesea cu o supraveghere umană minimă la fiecare pas.
Această autonomie este exact ceea ce le face valoroase. Companii precum Salesforce, Microsoft și Google au făcut pariuri semnificative pe arhitecturile agențice în ultimele optsprezece luni. Platforma Agentforce de la Salesforce, agenții Copilot de la Microsoft și agenții Vertex AI de la Google promit să automatizeze fluxuri de lucru complexe de afaceri care anterior necesitau intervenție umană la fiecare pas.
Însă iată provocarea de guvernanță: atunci când un agent ia o decizie cu consecințe - de exemplu, respingerea unei cereri de despăgubire de la asigurare, trierea datelor medicale ale unui pacient sau semnalarea unui angajat pentru evaluarea performanței - organizația care o implementează are nevoie de o pistă de audit completă. Cine a autorizat domeniul de acțiune al agentului? Ce date au stat la baza deciziei? A existat o supraveghere umană semnificativă? Conform cerințelor Legii UE privind inteligența artificială pentru sistemele cu risc ridicat, aceste întrebări nu sunt opționale. Sunt obligatorii din punct de vedere legal.
Legea UE privind inteligența artificială clasifică aplicațiile de inteligență artificială în niveluri de risc, iar cele mai stricte obligații se aplică cazurilor de utilizare cu risc ridicat - inclusiv deciziile de angajare, scorul de credit, aplicarea legii, gestionarea migrației și infrastructura critică. Pentru o înțelegere mai profundă a acestor categorii, consultați prezentarea noastră generală a celor 5 arhitecturi de calcul cu inteligență artificială pe care fiecare inginer trebuie să le cunoască în 2025 .
Iată ce trebuie să demonstreze organizațiile care implementează sisteme agențice în aceste domenii:
Problema este că multe implementări de inteligență artificială agentială estompează liniile de responsabilitate. Atunci când un agent orchestrează acțiuni pe mai multe sisteme - extragerea de date dintr-o bază de date, rularea inferenței printr-un alt model și transmiterea unui rezultat către o a treia aplicație - lanțul decizional devine opac. Chiar și inginerii care au construit sistemul se pot confrunta cu dificultăți în a reconstrui logica precisă din spatele unui rezultat specific.
Liderii întreprinderilor poartă responsabilitatea finală pentru sistemele pe care le implementează, indiferent de cât de autonome devin aceste sisteme. Acesta este un principiu pe care Legea UE privind inteligența artificială îl consolidează în mod explicit. Implementatorii de sisteme de inteligență artificială cu risc ridicat - nu doar dezvoltatorii - au obligații de conformitate substanțiale.
Totuși, un sondaj McKinsey de la începutul anului 2025 a constatat că, deși 72% dintre organizații adoptaseră o formă de inteligență artificială în operațiunile lor, mai puțin de jumătate implementaseră structuri formale de guvernanță pentru aceste implementări. În special pentru sistemele agențice, decalajul este probabil mai mare, deoarece multe întreprinderi se află încă în faze pilot și tratează guvernanța ca pe o problemă de rezolvat ulterior.
Această abordare devine rapid inacceptabilă. Analiștii din industrie avertizează că organizațiile trebuie să trateze guvernanța agenților IA cu aceeași rigoare pe care o aplică controalelor financiare sau protecției datelor în cadrul GDPR. Dacă nu o poți audita, nu o poți apăra - iar autoritățile de reglementare vor veni în cele din urmă să întrebe.
Mai multe voci proeminente din domeniul politicilor de inteligență artificială au semnalat sistemele agențice ca fiind un punct orb în materie de reglementare. Cercetătorii de la Institutul Ada Lovelace au susținut că cadrele existente de guvernanță a inteligenței artificiale presupun o relație relativ statică între input și output - o presupunere care se prăbușește atunci când agenții înlănțuie mai multe decizii autonome în timp.
Între timp, Gartner a prezis la sfârșitul anului 2024 că, până în 2028, cel puțin 15% din deciziile de afaceri zilnice vor fi luate autonom de către agenții de inteligență artificială - față de zero în 2023. Această traiectorie sugerează că problema guvernanței se va intensifica pe măsură ce implementarea se extinde.
Pentru liderii IT, mesajul este clar: așteptarea ca îndrumările de reglementare să devină prescriptive înainte de a acționa este o strategie nereușită. Legea UE privind inteligența artificială stabilește obligații ample, iar organizațiile vor trebui să demonstreze că le-au îndeplinit prin practici de guvernanță documentate și justificabile. Cei interesați de construirea de programe robuste de supraveghere a inteligenței artificiale ar trebui să exploreze ghidul nostru despre kitul de instrumente Microsoft Open-Source Securizează agenții de inteligență artificială în timpul rulării .
Mai multe evoluții merită urmărite cu atenție în restul anului 2025 și în 2026:
Inteligența artificială agentică reprezintă una dintre cele mai importante schimbări în tehnologia întreprinderilor de la apariția cloud computing-ului. Însă aceeași autonomie care face ca aceste sisteme să fie puternice le face și dificil de guvernat - iar calendarul de aplicare al Legii UE privind inteligența artificială lasă puțin loc pentru automulțumire.
Liderii care tratează guvernanța ca pe o idee ulterioară riscă nu doar sancțiuni de reglementare, ci și erodarea încrederii clienților, angajaților și partenerilor. Organizațiile care prosperă în cadrul acestor noi reguli vor fi cele care își vor integra responsabilitatea în sistemele lor de agenție de la zero, în loc să le modernizeze după ce o criză de conformitate le impune responsabilitatea.