افتح ملخص المحرر مجانًا

قد يبدو الأمر أشبه بحبكة خيال علمي، ولكن في المستقبل من الممكن أن يصل الذكاء الاصطناعي إلى نقطة التحسين الذاتي السريع، والتهرب من السيطرة البشرية، وإطلاق العنان للفوضى على البشر من خلال الهجمات السيبرانية أو حتى الكوارث النووية. وهذا هو مصدر قلق بعض العلماء والمطورين، وكان الدافع وراء إصدار مشروع قانون لسلامة الذكاء الاصطناعي في كاليفورنيا، التي تضم 32 من أكبر 50 شركة رائدة في مجال الذكاء الاصطناعي في العالم. لكن يوم الأحد، استخدم حاكم الولاية جافين نيوسوم حق النقض ضد التشريع. يُنظر إلى القرار على أنه فوز كبير لشركات التكنولوجيا الكبرى، وقرار متهور للسلامة العامة، وفرصة ضائعة لوضع معايير سلامة الذكاء الاصطناعي الفعلية على المستوى الوطني. الأمر ليس بهذه البساطة.

إن وضع قواعد للحماية من الأضرار المحتملة للتكنولوجيا، وخاصة تلك التي لا تزال قيد التطوير، يعد بمثابة عملية توازن صعبة. وإذا كانت متعجرفة أكثر مما ينبغي، فإنها تخاطر بخنق الابتكار في المقام الأول، مما يعني أن المجتمع يخسر فوائده المحتملة أيضا. وعلى الرغم من تخفيف مشروع قانون كاليفورنيا في أعقاب الضغوط المكثفة من قِبَل وادي السليكون، فإن الشكوك حول تأثيره على تطوير الذكاء الاصطناعي ونشره لا تزال قائمة.

كان أحد الأهداف العامة لمشروع قانون ولاية كاليفورنيا هو رفع مستوى مساءلة المطورين عن إساءة استخدام نماذجهم. ومهما كان ذلك رائعًا، إلا أنه يمكن أن يكون له آثار جانبية. على سبيل المثال، من الصعب على المطورين أن يعرفوا مسبقًا كيف يمكن استخدام التكنولوجيا الخاصة بهم. وقد يتصالحون مع ذلك من خلال الانسحاب من البحث. كما أعرب خبراء الذكاء الاصطناعي عن قلقهم من أن بروتوكولات السلامة الواردة في مشروع القانون – والتي تضمنت مطالبة الشركات ببناء “مفتاح إيقاف” في النماذج التي تتجاوز عتبة معينة – يمكن أن تثبط التطوير واستخدام النماذج مفتوحة المصدر، حيث يحدث الكثير من الابتكار.

وكان مصدر القلق الآخر هو أن التشريع لم يستهدف على وجه التحديد أنظمة الذكاء الاصطناعي المستخدمة في البيئات عالية المخاطر، مثل البنية التحتية الحيوية، أو إذا كانت تستخدم بيانات حساسة. لقد طبقت معايير صارمة حتى على الوظائف الأساسية.

ونظراً لهذه المخاوف، يبدو قرار نيوسوم معقولاً. ومع ذلك، هذا لا يعني أن شركات التكنولوجيا يجب أن تحصل على حرية التشغيل. مع تزايد سرعة سباق الذكاء الاصطناعي، هناك قلق حقيقي من أن يتجاهل صانعو النماذج نقاط الضعف. لذا فمن المنطقي أن يقوم المشرعون الآن بإعادة صياغة القواعد المقترحة وتوضيح الصياغة الغامضة، من أجل إيجاد توازن أفضل بين المخاوف بشأن التأثير على الإبداع اليوم. وأعلن نيوسوم عن شراكة واعدة مع الخبراء لتطوير “حواجز حماية عملية”. ومن المرحب به أيضًا أن المحافظ قد وقع مؤخرًا على مشاريع قوانين تهدف إلى تنظيم مخاطر الذكاء الاصطناعي الواضحة والحالية – وليس المخاطر الافتراضية – بما في ذلك تلك المتعلقة بالتزييف العميق والمعلومات المضللة.

وفي حين أن ريادة كاليفورنيا في تنظيم الذكاء الاصطناعي تستحق الثناء، فإنه سيكون من الأفضل أيضًا أن يتم مناقشة قواعد السلامة وتفعيلها على المستوى الفيدرالي. وهذا من شأنه أن يوفر الحماية في جميع أنحاء أمريكا، ويمنع ظهور خليط من قوانين الولايات المختلفة، ويتجنب وضع ولاية غولدن ستايت – مركز الابتكار الأمريكي والعالمي في مجال الذكاء الاصطناعي – في وضع تنافسي غير مؤات.

في الواقع، على الرغم من أن جاذبية المستثمرين والمواهب في وادي السليكون لا تزال قوية، هناك خطر يتمثل في أن تنظيم الذكاء الاصطناعي الأحادي الجانب والصارم يمكن أن يدفع تطوير النماذج إلى أماكن أخرى، مما يضعف النظام البيئي التكنولوجي للذكاء الاصطناعي في الولاية في هذه العملية. في الواقع، تتمتع كاليفورنيا بضرائب مرتفعة وهي الولاية الأكثر تنظيمًا في الولايات المتحدة. الملكية باهظة الثمن أيضًا. غادرت الشركات بما في ذلك شركة تحليل البيانات الأمريكية Palantir وشركة الوساطة Charles Schwab الولاية مؤخرًا، وقامت بعض شركات التكنولوجيا بتقليص المساحات المكتبية.

إن إدارة المخاوف المتعلقة بالسلامة المتعلقة بتطوير الذكاء الاصطناعي هي فن الحفاظ على الخير مع التأمين ضد الشر. ولا ينبغي لنا أن نتعامل مع التهديدات التكنولوجية التي تواجه مجتمعاتنا باستخفاف، ولكن لا ينبغي لنا أن نمنع ظهور الإبداع القادر على المساعدة في تشخيص الأمراض، وتسريع البحث العلمي، وتعزيز الإنتاجية. ومن الجدير بذل الجهد للحصول عليه بشكل صحيح.

شاركها.