في ظل التطور السريع لوكلاء الذكاء الاصطناعي (AI agents) مثل OpenClaw، الذين أصبحوا قادرين على تولي زمام الحياة الرقمية للمستخدمين، تبرز تحديات أمنية خطيرة. فقد أدت قدرة هذه الوكلاء على الوصول إلى الحسابات الرقمية وتنفيذ الأوامر إلى حوادث مؤسفة، بما في ذلك حذف رسائل بريد إلكتروني مهمة، وكتابة مقالات مسيئة، وحتى شن هجمات تصيد احتيالي ضد أصحابها. في هذا السياق، أطلق باحث الأمن المخضرم نيلس بروفوس مشروع IronCurtain، وهو مساعد ذكاء اصطناعي مفتوح المصدر وآمن يهدف إلى إضافة طبقة تحكم حرجة.

يقدم IronCurtain حلاً مبتكرًا لمشكلة الفوضى التي تسببت فيها وكلاء الذكاء الاصطناعي الحالية. بدلًا من التفاعل المباشر مع أنظمة المستخدم وحساباته، يعمل المساعد الجديد في بيئة آمنة ومعزولة (آلة افتراضية). والأهم من ذلك، أن جميع إجراءاته تخضع لسياسة محددة، أشبه بـ “دستور” يكتبه المستخدم بنفسه للحكم على عمل النظام. تم تصميم IronCurtain ليتمكن من فهم هذه السياسات بلغة إنجليزية بسيطة، ومن ثم تحويلها عبر عملية متعددة الخطوات باستخدام نماذج اللغة الكبيرة (LLMs) إلى سياسات أمنية قابلة للتنفيذ.

IronCurtain: درع جديد لوكلاء الذكاء الاصطناعي

صرح بروفوس بأن الخدمات الحالية مثل OpenClaw تحظى بشعبية جارفة في الوقت الراهن، ولكن هناك فرصة لتطوير بدائل أكثر أمانًا. وأوضح أن الهدف هو تقديم مساعدين يوفرون فائدة عالية مع تجنب المسارات الخطرة وغير المستكشفة التي قد تؤدي إلى نتائج مدمرة. هذا التوجه نحو تطوير حلول آمنة لاستخدام وكلاء الذكاء الاصطناعي يمثل خطوة مهمة في تأمين الاستخدام المستقبلي للتكنولوجيا.

يؤكد بروفوس على أهمية قدرة IronCurtain على ترجمة التعليمات البسيطة والمباشرة إلى سياسات تنفيذية حتمية (قابلة للتنبؤ). يأتي هذا التأكيد نظرًا لطبيعة نماذج اللغة الكبيرة التي غالبًا ما تكون “عشوائية” واحتمالية، بمعنى أنها لا تنتج بالضرورة نفس المحتوى أو تقدم نفس المعلومات استجابة لنفس المطالبة. هذا التباين يمثل تحديًا كبيرًا لحواجز الأمان الذكية، حيث يمكن لأنظمة الذكاء الاصطناعي أن تتطور بمرور الوقت وتغير طريقة تفسيرها لآليات التحكم أو القيود، مما قد يؤدي إلى سلوكيات جامحة.

كيف يعمل IronCurtain؟

يمكن أن تكون سياسة IronCurtain بسيطة مثل: “يجوز للوكيل قراءة جميع رسائل بريدي الإلكتروني. ويجوز له إرسال رسائل بريد إلكتروني إلى جهات الاتصال الخاصة بي دون إذن. أما بالنسبة لأي شخص آخر، فيجب أسألي أولًا. لا تقم بحذف أي شيء بشكل دائم.” هذه التعليمات الواضحة تشكل أساسًا لحماية خصوصية المستخدم وبياناته.

يقوم IronCurtain بمعالجة هذه التوجيهات وتحويلها إلى سياسة قابلة للتنفيذ، ثم يتوسط بين وكيل المساعد الموجود في الجهاز الافتراضي وبين ما يُعرف بـ “خادم بروتوكول سياق النموذج” (model context protocol server). هذا الخادم هو الذي يمنح نماذج اللغة الكبيرة (LLMs) الوصول إلى البيانات والخدمات الرقمية الأخرى لتنفيذ المهام. إن القدرة على تقييد الوكيل بهذه الطريقة يضيف مكونًا هامًا للتحكم في الوصول، وهو ما تفتقر إليه حاليًا المنصات الويب مثل موفري البريد الإلكتروني، لأنها لم تُصمم في الأصل لسيناريوهات يتشارك فيها مالك بشري ووكلاء ذكاء اصطناعي في حساب واحد.

يشير بروفوس إلى أن IronCurtain مصمم لتحسين وتطوير “دستور” المستخدم بشكل مستمر. يحدث هذا التطوير عندما يواجه النظام حالات استثنائية ويتطلب مدخلات بشرية حول كيفية المتابعة. كما أن النظام، الذي يعتبر مستقلًا عن نماذج معينة ويمكن استخدامه مع أي نموذج لغة كبير (LLM)، مصمم للاحتفاظ بسجل تدقيق لجميع قرارات السياسة بمرور الوقت. هذا السجل يساعد في تتبع التغييرات وفهم كيفية اتخاذ القرارات.

يُعد IronCurtain حاليًا نموذجًا بحثيًا أوليًا، وليس منتجًا استهلاكيًا. يأمل بروفوس أن يساهم الأفراد في هذا المشروع لاستكشافه والمساعدة في تطويره. وقد أشاد دينو داي زوڤي، باحث مرموق في مجال الأمن السيبراني، الذي جرب الإصدارات المبكرة من IronCurtain، بالنهج المفاهيمي للمشروع، مشيرًا إلى أنه يتوافق مع رؤيته الخاصة حول كيفية تقييد وكلاء الذكاء الاصطناعي.

تتجه الأنظار الآن إلى الخطوات المستقبلية التي سيتخذها فريق IronCurtain في سبيل تطوير هذا النظام. من المتوقع أن تستمر الأبحاث لتوسيع نطاق إمكانيات النظام وتضمين المزيد من أدوات الأمان. يبقى التحدي الرئيسي هو موازنة الإفادة التي تقدمها وكلاء الذكاء الاصطناعي مع ضمان عدم وقوع حوادث أمنية، وهو ما يسعى IronCurtain لتحقيقه.

شاركها.