यूरोपीय संघ के एआई अधिनियम 2026 के तहत एजेंटिक एआई शासन संबंधी चुनौतियाँ

As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.

जैसे ही यूरोपीय संघ के एआई अधिनियम के प्रवर्तन प्रावधान अगस्त 2025 से प्रभावी होने शुरू होंगे - और पूर्ण अनुपालन दायित्व 2026 तक लागू हो जाएंगे - यूरोप और उससे बाहर के प्रौद्योगिकी नेताओं के लिए एक नई और जटिल समस्या उभर रही है। एजेंटिक एआई सिस्टम, जो उद्यम परिवेश में स्वायत्त रूप से बहु-चरणीय कार्यों को निष्पादित करते हैं, शासन में उन गहरे अंतरों को उजागर कर रहे हैं जिन्हें मौजूदा अनुपालन ढांचे कभी भी संभालने के लिए डिज़ाइन नहीं किए गए थे।

मामला बेहद गंभीर है। इन स्वायत्त एजेंटों को तैनात करने वाले संगठनों को गंभीर उल्लंघनों के लिए 35 मिलियन यूरो तक या वैश्विक वार्षिक कारोबार के 7% तक का जुर्माना भरना पड़ सकता है। और कड़वी सच्चाई यह है कि कई उद्यमों के पास फिलहाल यह समझाने का कोई विश्वसनीय तरीका नहीं है कि उनके एआई एजेंट क्या कर रहे हैं, और यह साबित करना तो दूर की बात है कि वे कार्य वैध हैं।

शासन संकट के पीछे क्या कारण हैं?

परंपरागत एआई मॉडल जो केवल एक संकेत पर प्रतिक्रिया देते हैं और एक ही परिणाम उत्पन्न करते हैं, उनके विपरीत, एजेंटिक एआई सिस्टम एक निश्चित स्तर की स्वतंत्रता के साथ काम करते हैं जो जोखिम के आकलन को मौलिक रूप से बदल देता है। ये एजेंट विभिन्न प्लेटफार्मों के बीच डेटा स्थानांतरित कर सकते हैं, लेनदेन शुरू कर सकते हैं, बाहरी एपीआई के साथ संवाद कर सकते हैं और निर्णयों की श्रृंखला को आपस में जोड़ सकते हैं - अक्सर प्रत्येक चरण में न्यूनतम मानवीय निगरानी के साथ।

यही स्वायत्तता उन्हें मूल्यवान बनाती है। सेल्सफोर्स, माइक्रोसॉफ्ट और गूगल जैसी कंपनियों ने पिछले अठारह महीनों में एजेंटिक आर्किटेक्चर पर महत्वपूर्ण निवेश किया है। सेल्सफोर्स का एजेंटफोर्स प्लेटफॉर्म, माइक्रोसॉफ्ट के कोपायलट एजेंट और गूगल के वर्टेक्स एआई एजेंट, ये सभी जटिल व्यावसायिक कार्यों को स्वचालित करने का वादा करते हैं, जिनमें पहले हर कदम पर मानवीय हस्तक्षेप की आवश्यकता होती थी।

लेकिन यहाँ शासन संबंधी चुनौती यह है: जब कोई एजेंट कोई महत्वपूर्ण निर्णय लेता है — जैसे, बीमा दावे को अस्वीकार करना, किसी मरीज के चिकित्सा डेटा का विश्लेषण करना, या किसी कर्मचारी को प्रदर्शन समीक्षा के लिए चिह्नित करना — तो उसे तैनात करने वाले संगठन को एक संपूर्ण ऑडिट ट्रेल की आवश्यकता होती है। एजेंट के कार्यक्षेत्र को किसने अधिकृत किया? निर्णय किस डेटा पर आधारित था? क्या सार्थक मानवीय निगरानी थी? यूरोपीय संघ के एआई अधिनियम के उच्च जोखिम वाले सिस्टमों के लिए निर्धारित आवश्यकताओं के तहत, ये प्रश्न वैकल्पिक नहीं हैं। ये कानूनी रूप से अनिवार्य हैं।

यूरोपीय संघ के कृत्रिम बुद्धिमत्ता अधिनियम के कारण यह क्यों अत्यंत आवश्यक हो गया है?

यूरोपीय संघ का एआई अधिनियम एआई अनुप्रयोगों को जोखिम श्रेणियों में वर्गीकृत करता है, और सबसे सख्त दायित्व उच्च जोखिम वाले उपयोग मामलों पर लागू होते हैं - जिनमें रोजगार संबंधी निर्णय, क्रेडिट स्कोरिंग, कानून प्रवर्तन, प्रवासन प्रबंधन और महत्वपूर्ण अवसंरचना शामिल हैं। इन श्रेणियों की गहन समझ के लिए, 2025 में हर इंजीनियर को पता होनी चाहिए ऐसी 5 एआई कंप्यूट आर्किटेक्चर की हमारी समीक्षा देखें।

इन क्षेत्रों में एजेंटिक सिस्टम तैनात करने वाले संगठनों को निम्नलिखित बातें प्रदर्शित करनी होंगी:

  • ट्रेसबिलिटी: एजेंट के परिचालन जीवनचक्र के दौरान उसकी गतिविधियों, इनपुट और आउटपुट का पूर्ण लॉगिंग।
  • मानवीय निगरानी: ऐसे तंत्र जो योग्य व्यक्तियों को किसी भी समय सिस्टम में हस्तक्षेप करने, उसे रद्द करने या बंद करने की अनुमति देते हैं।
  • जोखिम प्रबंधन: एजेंट के स्वायत्त व्यवहार से किस प्रकार हानिकारक या भेदभावपूर्ण परिणाम उत्पन्न हो सकते हैं, इसका निरंतर मूल्यांकन।
  • पारदर्शिता: स्पष्ट दस्तावेजीकरण जो नियामकों और प्रभावित व्यक्तियों को यह समझने में सक्षम बनाता है कि निर्णय कैसे लिए गए।

समस्या यह है कि कई एजेंटिक एआई तैनाती में जवाबदेही की सीमाएं धुंधली हो जाती हैं। जब कोई एजेंट कई प्रणालियों में कार्यों का समन्वय करता है - एक डेटाबेस से डेटा खींचता है, दूसरे मॉडल के माध्यम से अनुमान लगाता है, और परिणाम को तीसरे एप्लिकेशन में भेजता है - तो निर्णय श्रृंखला अस्पष्ट हो जाती है। यहां तक कि सिस्टम बनाने वाले इंजीनियर भी किसी विशिष्ट परिणाम के पीछे के सटीक तर्क को समझने में संघर्ष कर सकते हैं।

नेतृत्वकर्ताओं को जवाबदेही के अंतर को पाटना होगा

उद्यम के नेताओं पर उनके द्वारा तैनात प्रणालियों की अंतिम जिम्मेदारी होती है, चाहे वे प्रणालियाँ कितनी भी स्वायत्त क्यों न हो जाएँ। यह एक ऐसा सिद्धांत है जिसे यूरोपीय संघ का कृत्रिम बुद्धिमत्ता अधिनियम स्पष्ट रूप से रेखांकित करता है। उच्च जोखिम वाली कृत्रिम बुद्धिमत्ता प्रणालियों के परिनियोजनकर्ताओं — न केवल विकासकर्ताओं — पर अनुपालन संबंधी महत्वपूर्ण दायित्व होते हैं।

हालांकि, 2025 की शुरुआत में मैकिन्ज़ी के एक सर्वेक्षण में पाया गया कि जहां 72% संगठनों ने अपने संचालन में किसी न किसी रूप में एआई को अपनाया था, वहीं आधे से भी कम ने इन अनुप्रयोगों के लिए औपचारिक शासन संरचनाएं लागू की थीं। विशेष रूप से एजेंटिक सिस्टम के मामले में, यह अंतर और भी अधिक होने की संभावना है, क्योंकि कई उद्यम अभी भी प्रायोगिक चरणों में हैं और शासन को एक ऐसी समस्या मान रहे हैं जिसे बाद में हल किया जाएगा।

यह दृष्टिकोण तेज़ी से अव्यवहारिक होता जा रहा है। उद्योग विश्लेषक चेतावनी दे रहे हैं कि संगठनों को एआई एजेंट गवर्नेंस को उसी सख्ती से संभालना चाहिए जिस सख्ती से वे वित्तीय नियंत्रण या GDPR के तहत डेटा सुरक्षा को संभालते हैं। यदि आप इसका ऑडिट नहीं कर सकते, तो आप इसका बचाव नहीं कर सकते - और अंततः नियामक आपसे सवाल करेंगे।

विशेषज्ञों का क्या कहना है

एआई नीति के क्षेत्र में कई प्रमुख हस्तियों ने एजेंटिक सिस्टम को नियामकीय खामियों के रूप में उजागर किया है। एडा लवलेस इंस्टीट्यूट के शोधकर्ताओं का तर्क है कि मौजूदा एआई शासन ढांचे इनपुट और आउटपुट के बीच अपेक्षाकृत स्थिर संबंध मानते हैं - एक ऐसी धारणा जो तब टूट जाती है जब एजेंट समय के साथ कई स्वायत्त निर्णयों को एक साथ जोड़ते हैं।

वहीं, गार्टनर ने 2024 के अंत में भविष्यवाणी की थी कि 2028 तक, दैनिक व्यावसायिक निर्णयों में से कम से कम 15% एआई एजेंटों द्वारा स्वचालित रूप से लिए जाएंगे - जो 2023 में लगभग शून्य थे। यह रुझान बताता है कि तैनाती के विस्तार के साथ-साथ शासन संबंधी समस्या और भी गंभीर हो जाएगी।

आईटी लीडर्स के लिए संदेश स्पष्ट है: नियामक दिशा-निर्देशों के स्पष्ट होने का इंतज़ार करना और उसके बाद ही कार्रवाई करना एक असफल रणनीति है। यूरोपीय संघ का एआई अधिनियम व्यापक दायित्व निर्धारित करता है, और संगठनों को दस्तावेजी और प्रमाणित शासन प्रक्रियाओं के माध्यम से यह साबित करना होगा कि उन्होंने इन दायित्वों को पूरा किया है। मजबूत एआई निगरानी कार्यक्रम बनाने में रुचि रखने वालों को रनटाइम पर एआई एजेंटों को सुरक्षित करने के लिए माइक्रोसॉफ्ट ओपन-सोर्स टूलकिट पर हमारी गाइड देखनी चाहिए।

आगे क्या होता है

2025 के शेष भाग और 2026 में कई घटनाक्रमों पर बारीकी से नजर रखना जरूरी है:

  1. नियामक मार्गदर्शन दस्तावेज: यूरोपीय एआई कार्यालय द्वारा उच्च जोखिम अनुपालन पर विस्तृत मार्गदर्शन जारी करने की उम्मीद है, जिसमें विशेष रूप से मल्टी-एजेंट और एजेंटिक सिस्टम को संबोधित किया जा सकता है।
  2. विक्रेता जवाबदेही सुविधाएँ: जैसे-जैसे अनुपालन का दबाव बढ़ेगा, प्रमुख क्लाउड प्रदाता संभवतः अपने एजेंट प्लेटफार्मों के लिए उन्नत लॉगिंग, व्याख्यात्मकता और नियंत्रण सुविधाएँ प्रदान करेंगे।
  3. बीमा और देयता में बदलाव: एआई-विशिष्ट देयता बीमा उत्पादों के उद्भव की उम्मीद है, क्योंकि उद्यम स्वायत्त प्रणालियों से जुड़े कुछ नियामक जोखिमों को स्थानांतरित करने की कोशिश कर रहे हैं।
  4. सीमा पार प्रवर्तन संबंधी तनाव: यूरोपीय संघ के बाहर मुख्यालय वाली लेकिन यूरोपीय ग्राहकों को सेवा प्रदान करने वाली कंपनियों को इस बारे में जटिल क्षेत्राधिकार संबंधी प्रश्नों का सामना करना पड़ेगा कि एजेंट शासन उनके संचालन पर कैसे लागू होता है।

तल - रेखा

क्लाउड कंप्यूटिंग के आगमन के बाद से एंटरप्राइज टेक्नोलॉजी में सबसे महत्वपूर्ण बदलावों में से एक एजेंटिक एआई का प्रतिनिधित्व करता है। लेकिन यही स्वायत्तता जो इन प्रणालियों को शक्तिशाली बनाती है, उन्हें नियंत्रित करना भी मुश्किल बना देती है - और यूरोपीय संघ के एआई अधिनियम की प्रवर्तन समयसीमा लापरवाही की कोई गुंजाइश नहीं छोड़ती।

जो नेता शासन व्यवस्था को गौण मानते हैं, उन्हें न केवल नियामक दंड का सामना करना पड़ता है, बल्कि ग्राहकों, कर्मचारियों और साझेदारों के साथ विश्वास खोने का भी खतरा होता है। इन नए नियमों के तहत सफल होने वाले संगठन वे होंगे जो जवाबदेही को अपनी कार्य प्रणाली में शुरू से ही शामिल करेंगे, न कि अनुपालन संकट के बाद इसे लागू करने का प्रयास करेंगे।

Follow
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...