
As EU AI Act enforcement ramps up through 2025 and 2026, organizations deploying agentic AI systems face serious governance challenges. Autonomous agents that chain decisions across enterprise systems create accountability gaps that leaders must urgently address to avoid steep regulatory penalties.
مع بدء سريان أحكام قانون الذكاء الاصطناعي للاتحاد الأوروبي في أغسطس 2025، واستمرار الالتزام الكامل به حتى عام 2026، تبرز مشكلة جديدة ومعقدة أمام قادة التكنولوجيا في أوروبا وخارجها. إذ تكشف أنظمة الذكاء الاصطناعي الوكيلة، التي تنفذ مهامًا متعددة الخطوات بشكل مستقل في بيئات المؤسسات، عن ثغرات عميقة في الحوكمة لم تُصمم أطر الامتثال الحالية لمعالجتها.
المخاطر جسيمة. تواجه المؤسسات التي تستخدم هذه الأنظمة الذكية المستقلة غرامات محتملة تصل إلى 35 مليون يورو أو 7% من إجمالي إيراداتها السنوية العالمية في حال ارتكابها لأخطر المخالفات. والواقع المزعج هو أن العديد من الشركات لا تملك حاليًا أي وسيلة موثوقة لتفسير ما تفعله أنظمتها الذكية، ناهيك عن إثبات مشروعية تلك الأفعال.
على عكس نماذج الذكاء الاصطناعي التقليدية التي تستجيب لمدخل واحد وتنتج مخرجًا واحدًا، تعمل أنظمة الذكاء الاصطناعي الوكيلة بدرجة من الاستقلالية تُغير جذريًا حسابات المخاطر. تستطيع هذه الوكلاء نقل البيانات بين المنصات، وبدء المعاملات، والتواصل مع واجهات برمجة التطبيقات الخارجية، وربط تسلسلات القرارات معًا - غالبًا بأقل قدر من الإشراف البشري في كل خطوة.
إن هذا الاستقلال هو ما يمنحها قيمتها. وقد استثمرت شركات مثل Salesforce وMicrosoft وGoogle مبالغ طائلة في بنى الذكاء الاصطناعي خلال الأشهر الثمانية عشر الماضية. تعد منصة Agentforce من Salesforce، ووكلاء Copilot من Microsoft، ووكلاء Vertex AI من Google، جميعها بأتمتة عمليات الأعمال المعقدة التي كانت تتطلب سابقًا تدخلًا بشريًا في كل خطوة.
لكن يكمن التحدي في مجال الحوكمة في التالي: عندما يتخذ نظام آلي قرارًا مصيريًا - كرفض مطالبة تأمين، أو فرز البيانات الطبية لمريض، أو ترشيح موظف لتقييم أدائه - تحتاج المؤسسة التي تستخدمه إلى سجل تدقيق كامل. من الذي سمح للنظام الآلي بالعمل ضمن نطاق صلاحياته؟ ما البيانات التي استند إليها القرار؟ هل كانت هناك رقابة بشرية فعّالة؟ بموجب متطلبات قانون الذكاء الاصطناعي للاتحاد الأوروبي للأنظمة عالية المخاطر، فإن الإجابة على هذه الأسئلة ليست اختيارية، بل هي إلزامية قانونًا.
يصنف قانون الاتحاد الأوروبي للذكاء الاصطناعي تطبيقات الذكاء الاصطناعي إلى مستويات مخاطر، وتقع أشد الالتزامات على حالات الاستخدام عالية المخاطر، بما في ذلك قرارات التوظيف، والتقييم الائتماني، وإنفاذ القانون، وإدارة الهجرة، والبنية التحتية الحيوية. لفهم أعمق لهذه التصنيفات، اطلع على نظرتنا العامة حول 5 بنى حوسبة للذكاء الاصطناعي يجب على كل مهندس معرفتها في عام 2025 .
إليكم ما يجب على المؤسسات التي تنشر أنظمة الوكلاء في هذه المجالات إثباته:
تكمن المشكلة في أن العديد من تطبيقات الذكاء الاصطناعي القائم على الوكلاء تُطمس حدود المساءلة. فعندما يُنسق وكيلٌ ما إجراءاتٍ عبر أنظمةٍ متعددة - كاستخراج البيانات من قاعدة بيانات، وإجراء الاستدلال عبر نموذج آخر، ودفع النتيجة إلى تطبيق ثالث - تصبح سلسلة اتخاذ القرار غامضة. حتى المهندسون الذين بنوا النظام قد يجدون صعوبةً في إعادة بناء المنطق الدقيق وراء نتيجةٍ معينة.
يتحمل قادة المؤسسات المسؤولية النهائية عن الأنظمة التي ينشرونها، بغض النظر عن مدى استقلالية هذه الأنظمة. وهذا مبدأ يؤكده قانون الذكاء الاصطناعي للاتحاد الأوروبي صراحةً. ويتحمل القائمون على نشر أنظمة الذكاء الاصطناعي عالية المخاطر - وليس المطورون فقط - التزامات امتثال كبيرة.
ومع ذلك، كشف استطلاع أجرته شركة ماكينزي مطلع عام 2025 أنه في حين تبنت 72% من المؤسسات شكلاً من أشكال الذكاء الاصطناعي في عملياتها، فإن أقل من نصفها قد طبق هياكل حوكمة رسمية لتلك التطبيقات. وبالنسبة للأنظمة الآلية تحديداً، فمن المرجح أن تكون الفجوة أوسع، إذ لا تزال العديد من المؤسسات في مراحل تجريبية وتتعامل مع الحوكمة كمشكلة يمكن حلها لاحقاً.
هذا النهج بات غير قابل للتطبيق بسرعة. يحذر محللو القطاع من أن المؤسسات بحاجة إلى التعامل مع حوكمة أنظمة الذكاء الاصطناعي بنفس الصرامة التي تطبقها على الضوابط المالية أو حماية البيانات بموجب اللائحة العامة لحماية البيانات (GDPR). فإذا لم يكن بالإمكان تدقيقها، فلن يكون بالإمكان الدفاع عنها، وسيأتي المنظمون في نهاية المطاف للمطالبة بها.
أشار العديد من الشخصيات البارزة في مجال سياسات الذكاء الاصطناعي إلى أن الأنظمة الآلية تمثل ثغرة تنظيمية. وقد جادل باحثون في معهد آدا لوفليس بأن أطر حوكمة الذكاء الاصطناعي الحالية تفترض وجود علاقة ثابتة نسبياً بين المدخلات والمخرجات، وهو افتراض ينهار عندما تقوم الأنظمة الآلية بربط قرارات مستقلة متعددة بمرور الوقت.
في غضون ذلك، توقعت شركة غارتنر في أواخر عام 2024 أنه بحلول عام 2028، سيتم اتخاذ ما لا يقل عن 15٪ من قرارات الأعمال اليومية بشكل مستقل بواسطة وكلاء الذكاء الاصطناعي - ارتفاعًا من الصفر تقريبًا في عام 2023. ويشير هذا المسار إلى أن مشكلة الحوكمة ستتفاقم مع توسع نطاق النشر.
بالنسبة لقادة تقنية المعلومات، الرسالة واضحة: انتظار صدور توجيهات تنظيمية ملزمة قبل اتخاذ أي إجراء استراتيجية خاسرة. يفرض قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي التزامات واسعة النطاق، وسيكون على المؤسسات إثبات التزامها بها من خلال ممارسات حوكمة موثقة وقابلة للدفاع. ننصح المهتمين ببناء برامج رقابة قوية على الذكاء الاصطناعي بالاطلاع على دليلنا حول "مجموعة أدوات مايكروسوفت مفتوحة المصدر لتأمين وكلاء الذكاء الاصطناعي أثناء التشغيل" .
هناك العديد من التطورات التي تستحق المتابعة عن كثب خلال الفترة المتبقية من عام 2025 وحتى عام 2026:
يمثل الذكاء الاصطناعي الآلي أحد أهم التحولات في تكنولوجيا المؤسسات منذ ظهور الحوسبة السحابية. لكن الاستقلالية نفسها التي تجعل هذه الأنظمة قوية تجعل إدارتها صعبة أيضاً، كما أن الجدول الزمني لتنفيذ قانون الاتحاد الأوروبي للذكاء الاصطناعي لا يترك مجالاً للتراخي.
إن القادة الذين يتعاملون مع الحوكمة كأمر ثانوي لا يواجهون فقط عقوبات تنظيمية، بل يخاطرون أيضاً بتآكل الثقة مع العملاء والموظفين والشركاء. وستكون المنظمات التي تزدهر في ظل هذه القواعد الجديدة هي تلك التي تبني المساءلة في أنظمتها الإدارية منذ البداية، بدلاً من تعديلها لاحقاً بعد أن تجبرها أزمة الامتثال على ذلك.