
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
जैसे ही यूरोपीय संघ के एआई अधिनियम के प्रवर्तन प्रावधान अगस्त 2025 से प्रभावी होने शुरू होंगे - और पूर्ण अनुपालन दायित्व 2026 तक लागू हो जाएंगे - यूरोप और उससे बाहर के प्रौद्योगिकी नेताओं के लिए एक नई और जटिल समस्या उभर रही है। एजेंटिक एआई सिस्टम, जो उद्यम परिवेश में स्वायत्त रूप से बहु-चरणीय कार्यों को निष्पादित करते हैं, शासन में उन गहरे अंतरों को उजागर कर रहे हैं जिन्हें मौजूदा अनुपालन ढांचे कभी भी संभालने के लिए डिज़ाइन नहीं किए गए थे।
मामला बेहद गंभीर है। इन स्वायत्त एजेंटों को तैनात करने वाले संगठनों को गंभीर उल्लंघनों के लिए 35 मिलियन यूरो तक या वैश्विक वार्षिक कारोबार के 7% तक का जुर्माना भरना पड़ सकता है। और कड़वी सच्चाई यह है कि कई उद्यमों के पास फिलहाल यह समझाने का कोई विश्वसनीय तरीका नहीं है कि उनके एआई एजेंट क्या कर रहे हैं, और यह साबित करना तो दूर की बात है कि वे कार्य वैध हैं।
परंपरागत एआई मॉडल जो केवल एक संकेत पर प्रतिक्रिया देते हैं और एक ही परिणाम उत्पन्न करते हैं, उनके विपरीत, एजेंटिक एआई सिस्टम एक निश्चित स्तर की स्वतंत्रता के साथ काम करते हैं जो जोखिम के आकलन को मौलिक रूप से बदल देता है। ये एजेंट विभिन्न प्लेटफार्मों के बीच डेटा स्थानांतरित कर सकते हैं, लेनदेन शुरू कर सकते हैं, बाहरी एपीआई के साथ संवाद कर सकते हैं और निर्णयों की श्रृंखला को आपस में जोड़ सकते हैं - अक्सर प्रत्येक चरण में न्यूनतम मानवीय निगरानी के साथ।
यही स्वायत्तता उन्हें मूल्यवान बनाती है। सेल्सफोर्स, माइक्रोसॉफ्ट और गूगल जैसी कंपनियों ने पिछले अठारह महीनों में एजेंटिक आर्किटेक्चर पर महत्वपूर्ण निवेश किया है। सेल्सफोर्स का एजेंटफोर्स प्लेटफॉर्म, माइक्रोसॉफ्ट के कोपायलट एजेंट और गूगल के वर्टेक्स एआई एजेंट, ये सभी जटिल व्यावसायिक कार्यों को स्वचालित करने का वादा करते हैं, जिनमें पहले हर कदम पर मानवीय हस्तक्षेप की आवश्यकता होती थी।
लेकिन यहाँ शासन संबंधी चुनौती यह है: जब कोई एजेंट कोई महत्वपूर्ण निर्णय लेता है — जैसे, बीमा दावे को अस्वीकार करना, किसी मरीज के चिकित्सा डेटा का विश्लेषण करना, या किसी कर्मचारी को प्रदर्शन समीक्षा के लिए चिह्नित करना — तो उसे तैनात करने वाले संगठन को एक संपूर्ण ऑडिट ट्रेल की आवश्यकता होती है। एजेंट के कार्यक्षेत्र को किसने अधिकृत किया? निर्णय किस डेटा पर आधारित था? क्या सार्थक मानवीय निगरानी थी? यूरोपीय संघ के एआई अधिनियम के उच्च जोखिम वाले सिस्टमों के लिए निर्धारित आवश्यकताओं के तहत, ये प्रश्न वैकल्पिक नहीं हैं। ये कानूनी रूप से अनिवार्य हैं।
यूरोपीय संघ का एआई अधिनियम एआई अनुप्रयोगों को जोखिम श्रेणियों में वर्गीकृत करता है, और सबसे सख्त दायित्व उच्च जोखिम वाले उपयोग मामलों पर लागू होते हैं - जिनमें रोजगार संबंधी निर्णय, क्रेडिट स्कोरिंग, कानून प्रवर्तन, प्रवासन प्रबंधन और महत्वपूर्ण अवसंरचना शामिल हैं। इन श्रेणियों की गहन समझ के लिए, 2025 में हर इंजीनियर को पता होनी चाहिए ऐसी 5 एआई कंप्यूट आर्किटेक्चर की हमारी समीक्षा देखें।
इन क्षेत्रों में एजेंटिक सिस्टम तैनात करने वाले संगठनों को निम्नलिखित बातें प्रदर्शित करनी होंगी:
समस्या यह है कि कई एजेंटिक एआई तैनाती में जवाबदेही की सीमाएं धुंधली हो जाती हैं। जब कोई एजेंट कई प्रणालियों में कार्यों का समन्वय करता है - एक डेटाबेस से डेटा खींचता है, दूसरे मॉडल के माध्यम से अनुमान लगाता है, और परिणाम को तीसरे एप्लिकेशन में भेजता है - तो निर्णय श्रृंखला अस्पष्ट हो जाती है। यहां तक कि सिस्टम बनाने वाले इंजीनियर भी किसी विशिष्ट परिणाम के पीछे के सटीक तर्क को समझने में संघर्ष कर सकते हैं।
उद्यम के नेताओं पर उनके द्वारा तैनात प्रणालियों की अंतिम जिम्मेदारी होती है, चाहे वे प्रणालियाँ कितनी भी स्वायत्त क्यों न हो जाएँ। यह एक ऐसा सिद्धांत है जिसे यूरोपीय संघ का कृत्रिम बुद्धिमत्ता अधिनियम स्पष्ट रूप से रेखांकित करता है। उच्च जोखिम वाली कृत्रिम बुद्धिमत्ता प्रणालियों के परिनियोजनकर्ताओं — न केवल विकासकर्ताओं — पर अनुपालन संबंधी महत्वपूर्ण दायित्व होते हैं।
हालांकि, 2025 की शुरुआत में मैकिन्ज़ी के एक सर्वेक्षण में पाया गया कि जहां 72% संगठनों ने अपने संचालन में किसी न किसी रूप में एआई को अपनाया था, वहीं आधे से भी कम ने इन अनुप्रयोगों के लिए औपचारिक शासन संरचनाएं लागू की थीं। विशेष रूप से एजेंटिक सिस्टम के मामले में, यह अंतर और भी अधिक होने की संभावना है, क्योंकि कई उद्यम अभी भी प्रायोगिक चरणों में हैं और शासन को एक ऐसी समस्या मान रहे हैं जिसे बाद में हल किया जाएगा।
यह दृष्टिकोण तेज़ी से अव्यवहारिक होता जा रहा है। उद्योग विश्लेषक चेतावनी दे रहे हैं कि संगठनों को एआई एजेंट गवर्नेंस को उसी सख्ती से संभालना चाहिए जिस सख्ती से वे वित्तीय नियंत्रण या GDPR के तहत डेटा सुरक्षा को संभालते हैं। यदि आप इसका ऑडिट नहीं कर सकते, तो आप इसका बचाव नहीं कर सकते - और अंततः नियामक आपसे सवाल करेंगे।
एआई नीति के क्षेत्र में कई प्रमुख हस्तियों ने एजेंटिक सिस्टम को नियामकीय खामियों के रूप में उजागर किया है। एडा लवलेस इंस्टीट्यूट के शोधकर्ताओं का तर्क है कि मौजूदा एआई शासन ढांचे इनपुट और आउटपुट के बीच अपेक्षाकृत स्थिर संबंध मानते हैं - एक ऐसी धारणा जो तब टूट जाती है जब एजेंट समय के साथ कई स्वायत्त निर्णयों को एक साथ जोड़ते हैं।
वहीं, गार्टनर ने 2024 के अंत में भविष्यवाणी की थी कि 2028 तक, दैनिक व्यावसायिक निर्णयों में से कम से कम 15% एआई एजेंटों द्वारा स्वचालित रूप से लिए जाएंगे - जो 2023 में लगभग शून्य थे। यह रुझान बताता है कि तैनाती के विस्तार के साथ-साथ शासन संबंधी समस्या और भी गंभीर हो जाएगी।
आईटी लीडर्स के लिए संदेश स्पष्ट है: नियामक दिशा-निर्देशों के स्पष्ट होने का इंतज़ार करना और उसके बाद ही कार्रवाई करना एक असफल रणनीति है। यूरोपीय संघ का एआई अधिनियम व्यापक दायित्व निर्धारित करता है, और संगठनों को दस्तावेजी और प्रमाणित शासन प्रक्रियाओं के माध्यम से यह साबित करना होगा कि उन्होंने इन दायित्वों को पूरा किया है। मजबूत एआई निगरानी कार्यक्रम बनाने में रुचि रखने वालों को रनटाइम पर एआई एजेंटों को सुरक्षित करने के लिए माइक्रोसॉफ्ट ओपन-सोर्स टूलकिट पर हमारी गाइड देखनी चाहिए।
2025 के शेष भाग और 2026 में कई घटनाक्रमों पर बारीकी से नजर रखना जरूरी है:
क्लाउड कंप्यूटिंग के आगमन के बाद से एंटरप्राइज टेक्नोलॉजी में सबसे महत्वपूर्ण बदलावों में से एक एजेंटिक एआई का प्रतिनिधित्व करता है। लेकिन यही स्वायत्तता जो इन प्रणालियों को शक्तिशाली बनाती है, उन्हें नियंत्रित करना भी मुश्किल बना देती है - और यूरोपीय संघ के एआई अधिनियम की प्रवर्तन समयसीमा लापरवाही की कोई गुंजाइश नहीं छोड़ती।
जो नेता शासन व्यवस्था को गौण मानते हैं, उन्हें न केवल नियामक दंड का सामना करना पड़ता है, बल्कि ग्राहकों, कर्मचारियों और साझेदारों के साथ विश्वास खोने का भी खतरा होता है। इन नए नियमों के तहत सफल होने वाले संगठन वे होंगे जो जवाबदेही को अपनी कार्य प्रणाली में शुरू से ही शामिल करेंगे, न कि अनुपालन संकट के बाद इसे लागू करने का प्रयास करेंगे।