في تحول مفاجئ في مشهد الأمن السيبراني، أصدرت شركة مايكروسوفت (Microsoft) تقريراً استراتيجياً مفصلاً، محذرةً من المخاطر الكامنة في وكلاء الذكاء الاصطناعي المستقلين (AI Agents). يؤكد هذا التقرير، الذي نشره الخبراء الأمنييون في 14 فبراير 2026، على الانتقال الحاسم من مجرد التفاعل مع الآلات إلى تفويضها بمهام نيابة عنا، مما يفتح الباب أمام ثغرات أمنية غير مسبوقة.

يشير التقرير إلى أن النماذج اللغوية المتقدمة لم تعد مجرد أدوات للإجابة على الأسئلة، بل تطورت لتصبح “وكلاء” قادرين على اتخاذ إجراءات مستقلة. هذا التطور، المتزامن مع اندماج هذه التقنيات في العمليات المؤسسية، يمثل نقلة نوعية تتطلب إعادة تقييم شاملة للمخاطر الأمنية.

جوهر التحذير.. من “الرد” إلى “الفعل”

تكمن الخطورة الأساسية في طبيعة عمل هذه الوكلاء، حيث يمتلكون القدرة على الوصول إلى أنظمة حساسة مثل البريد الإلكتروني، قواعد البيانات، والتقويمات، وتنفيذ إجراءات معقدة دون الحاجة إلى إشراف بشري مباشر. هذا الاستقلال في العمل هو ما يجعلهم هدفاً جذاباً للمتسللين.

أبرز التهديدات المستجدة التي حذرت منها مايكروسوفت تشمل:

1. هجمات حقن الأوامر غير المباشرة
يشير التقرير إلى أن المتسللين لم يعودوا بحاجة إلى اختراق مباشر للأنظمة. بدلاً من ذلك، يمكنهم إخفاء أوامر خبيثة ضمن محتوى عادي، مثل نص شفاف في رسالة بريد إلكتروني. عندما يعالج الوكيل الذكي هذه الرسالة، فإنه يمتص الأوامر الخفية، مما قد يؤدي إلى تسريب بيانات حساسة أو تنفيذ إجراءات غير مصرح بها.

2. معضلة الصلاحيات المفرطة
أوضح التقرير أن منح الوكلاء صلاحيات واسعة، مثل صلاحيات المسؤول (Admin)، لتسهيل مهامهم، يخلق ثغرة أمنية كبيرة. اختراق وكيل واحد بهذه الصلاحيات يمكن أن يوفر وصولاً شاملاً إلى موارد المؤسسة، وهو ما وصفته مايكروسوفت بكابوس أمني.

3. ظهور الذكاء الاصطناعي “الخفي”
تشير البيانات إلى أن نسبة كبيرة من الموظفين يستخدمون وكلاء ذكاء اصطناعي غير معتمدين من قبل أقسام تقنية المعلومات. هذا الاستخدام غير المنظم يضع بيانات المؤسسة الحساسة في خطر، حيث يتم إرسالها إلى خوادم خارجية خارج نطاق الرقابة الأمنية.

مايكروسوفت حذرت من أن وكلاء “كوبايلوت” الذين يتمتعون بصلاحيات واسعة قد يُستغلون لتسريب بيانات الشركة (غيتي)

إيكو ليك.. الثغرة التي غيرت قواعد اللعبة

كما تطرق التقرير إلى ثغرات مثل “إيكو ليك” (EchoLeak)، التي تستهدف ذاكرة الوكيل. من خلال هذه الثغرة، يمكن للمهاجم استغلال سجلات الدردشة السابقة أو البيانات السياقية التي يستخدمها الوكيل، مما قد يؤدي إلى الكشف عن معلومات حساسة.

ولمعالجة هذه التحديات، اقترحت مايكروسوفت نموذجاً أمنياً جديداً يرتكز على ثلاثة مبادئ أساسية. أولاً، “الموافقة البشرية الإلزامية”، حيث لا يُسمح للوكيل بتنفيذ إجراءات حساسة دون موافقة صريحة من المستخدم. ثانياً، تطبيق “مبدأ الحد الأدنى من الصلاحيات” لتقييد وصول الوكلاء إلى الضروري فقط لأداء مهامهم. ثالثاً، “المراقبة المستمرة” لسلوك الوكلاء باستخدام أدوات ذكاء اصطناعي متخصصة للكشف عن أي انحرافات.

تؤكد مايكروسوفت أن وكلاء الذكاء الاصطناعي يمثلون محركاً قوياً للإنتاجية، لكنها تحذر من أن غياب الإجراءات الأمنية الصارمة قد يحولهم إلى تهديد كبير. إن تأمين هذه الأنظمة لم يعد خياراً، بل أصبح ضرورة حتمية لضمان الاستمرارية الرقمية للمؤسسات.

شاركها.