
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
Wraz z wejściem w życie przepisów wykonawczych unijnej ustawy o sztucznej inteligencji (AI Act) w sierpniu 2025 r. – a pełne obowiązki w zakresie zgodności z przepisami będą obowiązywać do 2026 r. – pojawia się nowy, drażliwy problem dla liderów technologicznych w Europie i poza nią. Agentowe systemy AI, które autonomicznie wykonują wieloetapowe zadania w środowiskach korporacyjnych, ujawniają głębokie luki w zarządzaniu, których istniejące ramy zgodności nigdy nie były w stanie obsłużyć.
Stawka jest ogromna. Organizacje wdrażające te autonomiczne agenty mogą zostać ukarane grzywnami w wysokości do 35 milionów euro lub 7% globalnego rocznego obrotu za najpoważniejsze naruszenia. Niepokojąca rzeczywistość jest taka, że wiele przedsiębiorstw nie ma obecnie wiarygodnego sposobu na wyjaśnienie działań swoich agentów AI, nie mówiąc już o udowodnieniu, że te działania są zgodne z prawem.
W przeciwieństwie do tradycyjnych modeli sztucznej inteligencji, które reagują na pojedynczy komunikat i generują pojedynczy wynik, systemy agentowe AI działają z pewnym stopniem niezależności, który fundamentalnie zmienia rachunek ryzyka. Agenci mogą przesyłać dane między platformami, inicjować transakcje, komunikować się z zewnętrznymi interfejsami API i łączyć sekwencje decyzji – często z minimalnym nadzorem człowieka na każdym etapie.
To właśnie ta autonomia czyni je cennymi. Firmy takie jak Salesforce, Microsoft i Google w ciągu ostatnich osiemnastu miesięcy poczyniły znaczące inwestycje w architekturę agentową. Platforma Agentforce firmy Salesforce, agenci Copilot firmy Microsoft i agenci Vertex AI firmy Google obiecują automatyzację złożonych przepływów pracy w biznesie, które wcześniej wymagały ingerencji człowieka na każdym kroku.
Ale oto wyzwanie dla zarządzania: kiedy agent podejmuje ważną decyzję – na przykład odrzuca wniosek o ubezpieczenie, dokonuje wstępnej selekcji danych medycznych pacjenta lub zgłasza pracownika do oceny okresowej – organizacja, która go wdraża, potrzebuje pełnego śladu audytu. Kto zatwierdził zakres działania agenta? Jakie dane wpłynęły na decyzję? Czy istniał znaczący nadzór ludzki? Zgodnie z wymogami unijnej ustawy o sztucznej inteligencji (AI) dotyczącymi systemów wysokiego ryzyka, te pytania nie są opcjonalne. Są one wymagane prawnie.
Ustawa UE o sztucznej inteligencji (AI) klasyfikuje aplikacje AI według poziomów ryzyka, a najbardziej rygorystyczne obowiązki dotyczą przypadków użycia wysokiego ryzyka – w tym decyzji dotyczących zatrudnienia, oceny zdolności kredytowej, egzekwowania prawa, zarządzania migracją i infrastruktury krytycznej. Aby lepiej zrozumieć te kategorie, zapoznaj się z naszym przeglądem 5 architektur obliczeniowych AI, które każdy inżynier musi znać w 2025 roku .
Oto, co muszą wykazać organizacje wdrażające systemy agentowe w tych domenach:
Problem polega na tym, że wiele wdrożeń sztucznej inteligencji opartej na agentach zaciera granice odpowiedzialności. Gdy agent koordynuje działania w wielu systemach – pobierając dane z jednej bazy danych, przeprowadzając wnioskowanie za pomocą innego modelu i przesyłając wynik do trzeciej aplikacji – łańcuch decyzyjny staje się nieprzejrzysty. Nawet inżynierowie, którzy zbudowali system, mogą mieć trudności z odtworzeniem dokładnej logiki stojącej za konkretnym wynikiem.
Liderzy przedsiębiorstw ponoszą ostateczną odpowiedzialność za wdrażane systemy, niezależnie od stopnia ich autonomii. Jest to zasada, którą wyraźnie podkreśla unijna ustawa o sztucznej inteligencji (AI Act). Wdrażający systemy AI wysokiego ryzyka – nie tylko deweloperzy – mają istotne obowiązki w zakresie przestrzegania przepisów.
Jednak badanie McKinsey z początku 2025 roku wykazało, że chociaż 72% organizacji wdrożyło jakąś formę sztucznej inteligencji w swoich operacjach, mniej niż połowa wdrożyła formalne struktury zarządzania tymi wdrożeniami. W przypadku systemów agentowych różnica jest prawdopodobnie większa, ponieważ wiele przedsiębiorstw wciąż znajduje się w fazie pilotażowej i traktuje zarządzanie jako problem do rozwiązania w późniejszym czasie.
To podejście szybko staje się nie do utrzymania. Analitycy branżowi ostrzegają, że organizacje muszą traktować zarządzanie agentami AI z taką samą rygorystycznością, z jaką stosują je do kontroli finansowej czy ochrony danych zgodnie z RODO. Jeśli nie można czegoś zweryfikować, nie można tego obronić — a organy regulacyjne w końcu się o to zwrócą.
Kilka prominentnych głosów w polityce dotyczącej sztucznej inteligencji wskazało systemy agentowe jako ślepy punkt regulacji. Naukowcy z Instytutu Ady Lovelace argumentują, że istniejące ramy zarządzania sztuczną inteligencją zakładają stosunkowo statyczną relację między danymi wejściowymi a wyjściowymi – założenie, które zawodzi, gdy agenci łączą ze sobą wiele autonomicznych decyzji w czasie.
Z kolei Gartner prognozował pod koniec 2024 r., że do 2028 r. co najmniej 15% codziennych decyzji biznesowych będzie podejmowanych autonomicznie przez agentów AI — w porównaniu z praktycznie zerowym poziomem w 2023 r. Taka prognoza sugeruje, że problem zarządzania będzie się jedynie nasilać wraz ze skalowaniem wdrożenia.
Dla liderów IT przesłanie jest jasne: czekanie na to, aż regulacje staną się normatywne, zanim podejmie się działania, to strategia skazana na porażkę. Ustawa UE o sztucznej inteligencji (AI Act) określa szerokie obowiązki, a zadaniem organizacji będzie wykazanie, że spełniły je poprzez udokumentowane i uzasadnione praktyki zarządzania. Osoby zainteresowane budowaniem solidnych programów nadzoru nad sztuczną inteligencją powinny zapoznać się z naszym poradnikiem „Microsoft Open Source Toolkit Secures AI Agents at Runtime” .
Warto uważnie śledzić kilka wydarzeń do końca 2025 r. i na początku 2026 r.:
Agentowa sztuczna inteligencja (AI) stanowi jedną z najważniejszych zmian w technologii przedsiębiorstw od czasu pojawienia się chmury obliczeniowej. Jednak ta sama autonomia, która zapewnia tym systemom tak dużą moc, utrudnia również zarządzanie nimi – a harmonogram wdrażania unijnej ustawy o AI nie pozostawia miejsca na samozadowolenie.
Liderzy, którzy traktują zarządzanie jako coś drugorzędnego, ryzykują nie tylko kary regulacyjne, ale także utratę zaufania klientów, pracowników i partnerów. Organizacje, które odniosą sukces w nowych przepisach, to te, które wbudują rozliczalność w swoje systemy agencyjne od podstaw, zamiast modyfikować je dopiero, gdy kryzys zgodności z przepisami wymusi na nich zmianę.