وقّع الرئيس الأمريكي دونالد ترامب يوم الخميس أمرًا تنفيذيًا طال انتظاره يهدف إلى وضع إطار تنظيمي وطني للذكاء الاصطناعي، مع تقويض قدرة الولايات الفردية على سن قوانينها الخاصة. يمثل هذا الأمر تدخلًا فدراليًا كبيرًا في مجال الذكاء الاصطناعي، وهو ما أثار جدلاً واسعًا بين المؤيدين والمعارضين على حد سواء.

ينص الأمر التنفيذي، الذي يحمل عنوان “ضمان إطار سياسة وطنية للذكاء الاصطناعي”، على إنشاء فرقة عمل قانونية داخل وزارة العدل لمواجهة قوانين الولايات المتعلقة بالذكاء الاصطناعي والتي تعتبرها الإدارة تتعارض مع السياسة الفيدرالية. كما يوجه الأمر وزارة التجارة لوضع إرشادات قد تجعل الولايات غير مؤهلة للحصول على تمويل اتحادي للبنية التحتية للاتصالات العريضة إذا أقرت قوانين “مرهقة” بشأن الذكاء الاصطناعي.

الإطار التنظيمي للذكاء الاصطناعي: سعي نحو الهيمنة الفيدرالية

يعكس هذا التحرك ضغوطًا متزايدة من قبل المستثمرين في مجال الذكاء الاصطناعي، ومراكز السياسات المحافظة، ومجموعات الصناعة التكنولوجية، التي ترى أن التنظيم المتجزئ على مستوى الولايات قد يعيق الابتكار في وادي السيليكون ويقلل من القدرة التنافسية الأمريكية على الساحة العالمية. وقد دعا مستشار ترامب لشؤون الذكاء الاصطناعي والعملات المشفرة، ديفيد ساكس، بشكل صريح إلى اتباع نهج مرن في تنظيم الذكاء الاصطناعي.

صرح ساكس خلال حفل التوقيع بأن الأمر التنفيذي يمنح الإدارة أدوات للرد على اللوائح الأكثر إرهاقًا وتطرفًا على مستوى الولايات. وأضاف أن هذا لا يعني الرفض الكامل لكل القوانين، مشيرًا إلى أن حماية سلامة الأطفال ستظل أولوية.

أوجه التشابه والاختلاف مع المسودات السابقة

يشبه الأمر التنفيذي إلى حد كبير مسودة سابقة تم الحصول عليها، مع بعض الاختلافات الرئيسية. يتضمن الأمر توجيهات لساكس ومايكل كراتسيوس، مساعد الرئيس لشؤون العلوم والتكنولوجيا، لإعداد توصية تشريعية تهدف إلى وضع إطار سياسي فيدرالي للذكاء الاصطناعي.

ومن الإضافات الجديدة في هذا الأمر التنفيذي، بند يطلب من الكونجرس عدم إلغاء القوانين التي تهدف إلى حماية الأطفال، وتعزيز البنية التحتية لمراكز البيانات، وتشجيع الحكومات الولائية على الاستفادة من أدوات الذكاء الاصطناعي.

أكد ترامب أن الهدف هو وجود “مصدر مركزي واحد للموافقة”، معربًا عن ثقته في الحصول على دعم من كلا الحزبين الجمهوري والديمقراطي، واصفًا الأمر بأنه “منطق سليم”. وأوضح أن الحصول على موافقة 50 ولاية لكل تعديل قد يكون أمرًا مستحيلًا.

في غياب اللوائح الفيدرالية، اتخذت مسؤولون في ولايات مختلفة خطوات لسن قوانين خاصة بها تحكم استخدام وتطوير الذكاء الاصطناعي. ويشير الأمر التنفيذي لترامب تحديدًا إلى بعض قوانين الولايات، مثل قانون كولورادو SB24-205 الذي يهدف إلى الحد من “التمييز الخوارزمي” في نماذج الذكاء الاصطناعي، واصفًا إياه بأنه محاولة لـ “تضمين تحيز أيديولوجي”.

قد تقع قوانين أخرى للذكاء الاصطناعي على مستوى الولايات في دائرة الخطر. فقد وقّع حاكم ولاية كاليفورنيا جافين نيوسوم في سبتمبر الماضي على قانون يلزم شركات التكنولوجيا الكبرى بنشر أطر السلامة المتعلقة بنماذج الذكاء الاصطناعي الخاصة بها. وفي يونيو، أقرّت الهيئة التشريعية لولاية نيويورك مشروع قانون يمنح المدعي العام للولاية سلطة فرض عقوبات مدنية تصل إلى 30 مليون دولار على مطوري الذكاء الاصطناعي الذين لا يلتزمون بمعايير السلامة. ويترقب حاليًا توقيع حاكمة نيويورك كاثي هوشول على هذا القانون أو وضعه فيتو، مع وجود تقارير تشير إلى أنها تفكر في تعديلات قد تضعف من أثر القانون.

تأتي هذه الخطوة في وقت يشهد فيه قطاع التكنولوجيا نموًا سريعًا في مجال الذكاء الاصطناعي، مع تطبيقات واسعة النطاق في مختلف الصناعات. ويثير الأمر التنفيذي تساؤلات حول التوازن بين تشجيع الابتكار وحماية المستهلكين وضمان العدالة في استخدام هذه التكنولوجيا.

بالإضافة إلى ذلك، يثير هذا الأمر التنفيذي نقاشًا حول دور الحكومة الفيدرالية في تنظيم التكنولوجيا الناشئة، ومدى تدخلها في صلاحيات الولايات. ويرى البعض أن التنظيم الفيدرالي ضروري لتجنب الفوضى والتناقضات، بينما يرى آخرون أن الولايات هي الأقدر على فهم احتياجاتها الخاصة وتطوير قوانين مناسبة.

من المتوقع أن يواجه الأمر التنفيذي تحديات قانونية من قبل الولايات التي تعتقد أن الإدارة الفيدرالية تتجاوز سلطتها. كما أن مصير التوصية التشريعية التي سيقدمها ساكس وكراتسيوس للكونجرس لا يزال غير واضحًا، ويتوقف على التوافق السياسي بين الحزبين.

في الأيام والأسابيع القادمة، من المهم مراقبة ردود فعل الولايات، والتطورات القانونية المحتملة، ومناقشات الكونجرس حول إطار تنظيمي فيدرالي للذكاء الاصطناعي. كما يجب متابعة أي تعديلات محتملة على قوانين الولايات التي تم ذكرها في الأمر التنفيذي، وتقييم تأثير هذه التغييرات على قطاع الابتكار.

شاركها.