
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
Mivel az EU mesterséges intelligencia törvényének végrehajtási rendelkezései 2025 augusztusában hatályba lépnek – a teljes körű megfelelési kötelezettségek pedig 2026-ra nyúlnak át –, egy új és nehéz probléma merül fel a technológiai vezetők számára Európa-szerte és azon túl. Az ágentikus mesterséges intelligencia rendszerek, amelyek önállóan hajtanak végre több lépésből álló feladatokat vállalati környezetekben, mély irányítási hiányosságokat tárnak fel, amelyek kezelésére a meglévő megfelelési keretrendszereket soha nem tervezték.
A tét óriási. Az ilyen autonóm ügynököket telepítő szervezetek akár 35 millió eurós vagy a globális éves forgalom 7%-át is kitevő bírsággal nézhetnek szembe a legsúlyosabb jogsértések esetén. A kellemetlen valóság pedig az, hogy sok vállalatnak jelenleg nincs megbízható módja arra, hogy elmagyarázza, mit csinálnak a mesterséges intelligencia által vezérelt ügynökeik, nemhogy bizonyítsa, hogy ezek a tettek jogszerűek.
A hagyományos, egyetlen kérdésre reagáló és egyetlen kimenetet előállító MI-modellekkel ellentétben az ágensalapú MI-rendszerek olyan fokú függetlenséggel működnek, amely alapvetően megváltoztatja a kockázatszámítást. Ezek az ágensek adatokat mozgathatnak platformok között, tranzakciókat kezdeményezhetnek, kommunikálhatnak külső API-kkal, és láncba köthetik a döntéssorozatokat – gyakran minimális emberi felügyelettel minden lépésben.
Pontosan ez az autonómia teszi őket értékessé. Az olyan cégek, mint a Salesforce, a Microsoft és a Google, mind jelentős mértékben fektettek be az ágensalapú architektúrákba az elmúlt másfél évben. A Salesforce Agentforce platformja, a Microsoft Copilot ügynökei és a Google Vertex AI ügynökei mind ígéretet tesznek az összetett üzleti munkafolyamatok automatizálására, amelyek korábban minden lépésnél emberi beavatkozást igényeltek.
De itt van az irányítási kihívás: amikor egy ügynök jelentős döntést hoz – mondjuk elutasít egy biztosítási igényt, triázza egy beteg orvosi adatait, vagy megjelöl egy alkalmazottat teljesítményértékelésre –, a rendszert alkalmazó szervezetnek teljes körű auditnaplóra van szüksége. Ki engedélyezte az ügynök cselekvési körét? Milyen adatok alapján született a döntés? Volt-e érdemi emberi felügyelet? Az EU MI-törvényének a magas kockázatú rendszerekre vonatkozó követelményei értelmében ezek a kérdések nem opcionálisak. Jogilag kötelezőek.
Az EU MI-törvénye kockázati szintekbe sorolja a mesterséges intelligencia alkalmazásait, és a legszigorúbb kötelezettségek a magas kockázatú felhasználási esetekre vonatkoznak – beleértve a foglalkoztatási döntéseket, a hitelminősítést, a bűnüldözést, a migrációkezelést és a kritikus infrastruktúrát. E kategóriák mélyebb megértéséhez tekintse meg az 5 MI-számítási architektúra, amelyet minden mérnöknek ismernie kell 2025-ben című áttekintésünket.
Az alábbi követelményeket kell teljesíteniük az ügynöki rendszereket ezeken a területeken telepítő szervezeteknek:
A probléma az, hogy sok ügynökalapú MI-bevezetés elmossa az elszámoltathatóság határait. Amikor egy ügynök több rendszeren keresztül irányít műveleteket – adatokat kér le egy adatbázisból, következtetéseket futtat egy másik modellen keresztül, és az eredményt egy harmadik alkalmazásba tölti –, a döntési lánc átláthatatlanná válik. Még a rendszert építő mérnököknek is nehézséget okozhat, hogy pontosan rekonstruálják egy adott eredmény mögött meghúzódó logikát.
A vállalati vezetők viselik a végső felelősséget az általuk telepített rendszerekért, függetlenül attól, hogy ezek a rendszerek mennyire válnak autonómmá. Ezt az elvet az EU MI-törvénye kifejezetten megerősíti. A magas kockázatú MI-rendszerek telepítői – nem csak a fejlesztők – jelentős megfelelési kötelezettségekkel rendelkeznek.
Egy 2025 elején végzett McKinsey-felmérés azonban kimutatta, hogy míg a szervezetek 72%-a vezetett be valamilyen mesterséges intelligenciát a működésében, kevesebb mint a felük vezetett be formális irányítási struktúrákat ezekhez a telepítésekhez. Az ágensi rendszerek esetében a különbség valószínűleg nagyobb, mivel sok vállalat még kísérleti fázisban van, és az irányítást később megoldandó problémaként kezeli.
Ez a megközelítés gyorsan tarthatatlanná válik. Az iparági elemzők arra figyelmeztetnek, hogy a szervezeteknek ugyanolyan szigorúan kell kezelniük a mesterséges intelligencia által biztosított ügynökök irányítását, mint ahogyan a pénzügyi ellenőrzéseket vagy az adatvédelmet a GDPR értelmében alkalmazzák. Ha nem tudod ellenőrizni, nem tudod megvédeni – és a szabályozók végül kérdezni fognak.
A mesterséges intelligencia politikájának számos kiemelkedő hangja szabályozási vakfoltként jelölte meg az ágensrendszereket. Az Ada Lovelace Intézet kutatói azzal érveltek, hogy a meglévő MI-irányítási keretrendszerek viszonylag statikus kapcsolatot feltételeznek a bemenet és a kimenet között – ez a feltételezés azonban felborul, amikor az ágensek idővel több autonóm döntést láncolnak össze.
A Gartner eközben 2024 végén azt jósolta, hogy 2028-ra a napi üzleti döntések legalább 15%-át mesterséges intelligencia által támogatott ügynökök fogják automatikusan meghozni – szemben a 2023-as lényegében nullával. Ez a tendencia arra utal, hogy az irányítási probléma csak fokozódni fog a telepítés skálázódásával.
Az IT-vezetők számára az üzenet egyértelmű: vesztes stratégia megvárni, amíg a szabályozási iránymutatások előíró jellegűvé válnak, mielőtt cselekednének. Az EU MI-törvénye széles körű kötelezettségeket ír elő, és a szervezeteken múlik, hogy dokumentált, védhető irányítási gyakorlatok révén bizonyítsák, hogy eleget tettek ezeknek. Azoknak, akik érdeklődnek a robusztus MI-felügyeleti programok kiépítése iránt, érdemes megtekinteniük a Microsoft Open-Source Toolkit futásidejű MI-ügynökök védelméről szóló útmutatónkat.
Számos fejleményt érdemes szorosan figyelemmel kísérni 2025 fennmaradó részében és 2026-ban:
Az ágentikus mesterséges intelligencia a vállalati technológia egyik legjelentősebb változását képviseli a felhőalapú számítástechnika megjelenése óta. De ugyanaz az autonómia, amely ezeket a rendszereket hatékonnyá teszi, egyben megnehezíti az irányításukat is – és az EU MI-törvényének végrehajtási ütemterve kevés teret enged az önelégültségnek.
Azok a vezetők, akik az irányítást utólagos dolognak tekintik, nemcsak a szabályozási büntetéseket kockáztatják, hanem az ügyfelekkel, alkalmazottakkal és partnerekkel való bizalom erodálódását is. Azok a szervezetek fognak virágozni ezek az új szabályok alatt, amelyek az elszámoltathatóságot a semmiből építik be az ügynöki rendszereikbe, ahelyett, hogy utólagosan, egy megfelelőségi válság után építenék be.