Site icon السعودية برس

تريد حكومة الولايات المتحدة منك – نعم، أنت – أن تتعقب عيوب الذكاء الاصطناعي التوليدي

في مؤتمر Defcon hacker لعام 2023 في لاس فيجاس، دخلت شركات تكنولوجيا الذكاء الاصطناعي البارزة في شراكة مع مجموعات النزاهة والشفافية الخوارزمية لإرسال آلاف الحاضرين إلى منصات الذكاء الاصطناعي التوليدية والعثور على نقاط ضعف في هذه الأنظمة الحرجة. وقد اتخذت عملية “الفريق الأحمر” هذه، التي حظيت أيضًا بدعم من الحكومة الأمريكية، خطوة في فتح هذه الأنظمة المؤثرة بشكل متزايد ولكنها غامضة للتدقيق. والآن، تتخذ منظمة Humane Intelligence غير الربحية للتقييم الأخلاقي للذكاء الاصطناعي والخوارزميات خطوة أخرى إلى الأمام بهذا النموذج. ففي يوم الأربعاء، أعلنت المجموعة عن دعوة للمشاركة مع المعهد الوطني الأمريكي للمعايير والتكنولوجيا، ودعت أي مقيم في الولايات المتحدة للمشاركة في الجولة التأهيلية لجهود الفريق الأحمر على مستوى البلاد لتقييم برامج إنتاجية المكاتب التي تعمل بالذكاء الاصطناعي.

ستقام التصفيات عبر الإنترنت وهي مفتوحة للمطورين وأي شخص من عامة الناس كجزء من تحديات الذكاء الاصطناعي التابعة للمعهد الوطني للمعايير والتكنولوجيا، والمعروفة باسم تقييم مخاطر وتأثيرات الذكاء الاصطناعي، أو ARIA. سيشارك المشاركون الذين يجتازون الجولة التأهيلية في حدث جماعي شخصي في نهاية شهر أكتوبر في مؤتمر التعلم الآلي التطبيقي في أمن المعلومات (CAMLIS) في فرجينيا. والهدف هو توسيع القدرات لإجراء اختبارات صارمة لأمن ومرونة وأخلاقيات تقنيات الذكاء الاصطناعي التوليدية.

يقول ثيو سكيداس، الرئيس التنفيذي لمجموعة حوكمة الذكاء الاصطناعي والسلامة عبر الإنترنت Tech Policy Consulting، التي تعمل مع Humane Intelligence: “الشخص العادي الذي يستخدم أحد هذه النماذج لا يملك حقًا القدرة على تحديد ما إذا كان النموذج مناسبًا للغرض أم لا. لذلك نريد إضفاء الطابع الديمقراطي على القدرة على إجراء التقييمات والتأكد من أن كل شخص يستخدم هذه النماذج يمكنه تقييم ما إذا كان النموذج يلبي احتياجاته أم لا”.

سيقسم الحدث النهائي في CAMLIS المشاركين إلى فريق أحمر يحاول مهاجمة أنظمة الذكاء الاصطناعي وفريق أزرق يعمل على الدفاع. سيستخدم المشاركون إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، والمعروف باسم AI 600-1، كمقياس لقياس ما إذا كان الفريق الأحمر قادرًا على إنتاج نتائج تنتهك السلوك المتوقع للأنظمة.

يقول رومان تشودري، مؤسس Humane Intelligence، والذي يعمل أيضًا كمتعاقد في مكتب NIST للتكنولوجيات الناشئة وعضو في مجلس سلامة وأمن الذكاء الاصطناعي التابع لوزارة الأمن الداخلي الأمريكية: “يعتمد برنامج ARIA التابع لـ NIST على ملاحظات المستخدمين المنظمة لفهم التطبيقات الواقعية لنماذج الذكاء الاصطناعي. يتألف فريق ARIA في الغالب من خبراء في الاختبار والتقييم الاجتماعي التقني، ويستخدمون هذه الخلفية كوسيلة لتطوير المجال نحو التقييم العلمي الدقيق للذكاء الاصطناعي التوليدي”.

يقول تشودري وسكيداس إن شراكة المعهد الوطني للمعايير والتكنولوجيا ليست سوى واحدة من سلسلة من تعاونات فريق الذكاء الاصطناعي الأحمر التي ستعلنها هيومان إنتليجنس في الأسابيع المقبلة مع وكالات حكومية أمريكية وحكومات دولية ومنظمات غير حكومية. ويهدف هذا الجهد إلى جعل الأمر أكثر شيوعًا للشركات والمنظمات التي تطور ما أصبح الآن خوارزميات صندوق أسود لتقديم الشفافية والمساءلة من خلال آليات مثل “تحديات مكافأة التحيز”، حيث يمكن مكافأة الأفراد على العثور على مشاكل وعدم مساواة في نماذج الذكاء الاصطناعي.

يقول سكيداس: “يجب أن يكون المجتمع أوسع من مجرد المبرمجين. يجب أن يشارك صناع السياسات والصحافيون والمجتمع المدني والأشخاص غير الفنيين في عملية اختبار وتقييم هذه الأنظمة. ونحن بحاجة إلى التأكد من أن المجموعات الأقل تمثيلاً مثل الأفراد الذين يتحدثون لغات الأقليات أو ينتمون إلى ثقافات ووجهات نظر غير الأغلبية قادرة على المشاركة في هذه العملية”.

Exit mobile version