
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
Оскільки положення Закону ЄС про штучний інтелект (ШІ) щодо забезпечення виконання закону набувають чинності у серпні 2025 року, а повне дотримання вимог каскадно поширюється на 2026 рік, для лідерів у сфері технологій по всій Європі та за її межами виникає нова складна проблема. Агентні системи ШІ, які автономно виконують багатоетапні завдання в корпоративних середовищах, виявляють глибокі прогалини в управлінні, для вирішення яких існуючі системи дотримання вимог ніколи не були розроблені.
Ставки величезні. Організаціям, які використовують цих автономних агентів, загрожують штрафи у розмірі до 35 мільйонів євро або 7% світового річного обороту за найсерйозніші порушення. І неприємна реальність полягає в тому, що багато підприємств наразі не мають надійного способу пояснити, що роблять їхні агенти зі штучним інтелектом, не кажучи вже про те, щоб довести, що ці дії є законними.
На відміну від традиційних моделей штучного інтелекту, які реагують на одне запит і видають один результат, агентні системи штучного інтелекту працюють з певним ступенем незалежності, що фундаментально змінює розрахунок ризиків. Ці агенти можуть переміщувати дані між платформами, ініціювати транзакції, взаємодіяти із зовнішніми API та об'єднувати послідовності рішень — часто з мінімальним людським контролем на кожному кроці.
Саме ця автономія робить їх цінними. Такі компанії, як Salesforce, Microsoft та Google, зробили значні ставки на агентні архітектури за останні вісімнадцять місяців. Платформа Agentforce від Salesforce, агенти Copilot від Microsoft та агенти Vertex зі штучним інтелектом від Google обіцяють автоматизувати складні бізнес-процеси, які раніше вимагали втручання людини на кожному кроці.
Але ось у чому полягає проблема управління: коли агент приймає важливе рішення, наприклад, відхиляє страхову претензію, проводить сортування медичних даних пацієнта або позначає співробітника для перевірки ефективності роботи, організація, яка його розгортає, потребує повного аудиторського журналу. Хто уповноважив агента на сферу дій? Які дані вплинули на рішення? Чи був змістовний людський нагляд? Згідно з вимогами Закону ЄС про штучний інтелект до систем високого ризику, ці питання не є необов'язковими. Вони є юридично обов'язковими.
Закон ЄС про штучний інтелект класифікує програми штучного інтелекту за рівнями ризику, а найсуворіші зобов'язання стосуються випадків використання з високим рівнем ризику, включаючи рішення щодо працевлаштування, кредитний скоринг, правоохоронні органи, управління міграцією та критичну інфраструктуру. Для глибшого розуміння цих категорій дивіться наш огляд 5 обчислювальних архітектур штучного інтелекту, які кожен інженер повинен знати у 2025 році .
Ось що повинні продемонструвати організації, що розгортають агентні системи в цих областях:
Проблема полягає в тому, що багато агентних розгортань ШІ розмивають межі відповідальності. Коли агент координує дії в кількох системах — витягує дані з однієї бази даних, виконує логічний висновок через іншу модель і передає результат у третю програму — ланцюжок рішень стає непрозорим. Навіть інженери, які створили систему, можуть мати труднощі з відтворенням точної логіки, що стоїть за певним результатом.
Керівники підприємств несуть остаточну відповідальність за системи, які вони розгортають, незалежно від того, наскільки автономними стають ці системи. Цей принцип чітко підкріплений Законом ЄС про штучний інтелект. Розгортачі високоризикових систем штучного інтелекту, а не лише розробники, несуть суттєві зобов'язання щодо дотримання вимог.
Однак опитування McKinsey, проведене на початку 2025 року, показало, що хоча 72% організацій впровадили певну форму штучного інтелекту у своїй діяльності, менше половини запровадили формальні структури управління для цих розгортань. Щодо агентних систем, то розрив, ймовірно, ще більший, оскільки багато підприємств все ще перебувають на пілотних етапах і розглядають управління як проблему, яку потрібно вирішити пізніше.
Такий підхід швидко стає неприйнятним. Галузеві аналітики попереджають, що організаціям потрібно ставитися до управління агентами ШІ з такою ж суворістю, як і до фінансового контролю чи захисту даних згідно з GDPR. Якщо ви не можете провести аудит, ви не можете захистити його — і регуляторні органи зрештою самі почнуть вимагати.
Кілька відомих голосів у сфері політики штучного інтелекту позначили агентні системи як регуляторну сліпу пляму. Дослідники з Інституту Ади Лавлейс стверджують, що існуючі структури управління ШІ припускають відносно статичний зв'язок між вхідними та вихідними даними — припущення, яке руйнується, коли агенти з часом об'єднують кілька автономних рішень.
Тим часом Gartner наприкінці 2024 року прогнозував, що до 2028 року щонайменше 15% щоденних бізнес-рішень прийматимуться автономно агентами ШІ — порівняно з фактично нулем у 2023 році. Ця траєкторія свідчить про те, що проблема управління лише загострюватиметься в міру масштабування розгортання.
Для ІТ-лідерів послання зрозуміле: чекати, поки регуляторні вказівки стануть обов'язковими, перш ніж діяти, — це програшна стратегія. Закон ЄС про штучний інтелект встановлює широкі зобов'язання, і організації повинні будуть продемонструвати їх виконання за допомогою задокументованих, обґрунтованих практик управління. Тим, хто зацікавлений у створенні надійних програм нагляду за ШІ, варто ознайомитися з нашим посібником «Набір інструментів Microsoft з відкритим кодом захищає агентів ШІ під час виконання» .
Варто уважно стежити за кількома подіями протягом решти 2025 року та у 2026 році:
Агентний ШІ являє собою один із найважливіших зрушень у корпоративних технологіях з моменту появи хмарних обчислень. Але та сама автономія, яка робить ці системи потужними, також ускладнює їх управління, а терміни впровадження Закону ЄС про ШІ залишають мало місця для самовдоволення.
Лідери, які ставляться до управління як до другорядного питання, ризикують не лише регуляторними санкціями, а й руйнуванням довіри з клієнтами, співробітниками та партнерами. Організації, які процвітатимуть за цих нових правил, будуть тими, які вбудують підзвітність у свої агентські системи з нуля, а не вдосконалюють її після того, як криза комплаєнсу змусить їх до цього.