Site icon السعودية برس

رؤية سنغافورة لسلامة الذكاء الاصطناعى تسدّة تقسيم الولايات المتحدة الصينية

حكومة أصدرت سنغافورة مخططًا اليوم للتعاون العالمي حول سلامة الذكاء الاصطناعي بعد اجتماع للباحثين من الذكاء الاصطناعي من الولايات المتحدة والصين وأوروبا. تضع الوثيقة رؤية مشتركة للعمل على سلامة الذكاء الاصطناعي من خلال التعاون الدولي بدلاً من المنافسة.

يقول ماكس تيجارك ، العالم في معهد ماساتشوستس للتكنولوجيا على عقد اجتماع من الذكاء الاصطناعي الشهر الماضي: “سنغافورة هي واحدة من الدول القليلة على هذا الكوكب التي تتوافق مع الشرق والغرب على حد سواء”. “إنهم يعلمون أنهم لن يبنوا (ذكاء عام مصطنع) أنفسهم – سوف يقومون به لهم – لذا فمن مصلحتهم أن يكون هناك البلدان التي ستبنيها تتحدث مع بعضها البعض.”

بطبيعة الحال ، فإن البلدان التي اعتقدت أن البلدان على الأرجح تبني AGI هي الولايات المتحدة والصين – ومع ذلك ، فإن تلك الدول تبدو أكثر عزمًا على التغلب على بعضها البعض من العمل معًا. في يناير ، بعد أن أصدرت شركة Deepseek الصينية الناشئة نموذجًا متطورًا ، وصفها الرئيس ترامب بأنها “دعوة للاستيقاظ لصناعاتنا” وقال إن الولايات المتحدة بحاجة إلى أن تكون “تركز على الليزر على المنافسة على الفوز”.

يدعو إجماع سنغافورة على أولويات أبحاث السلامة من الذكاء الاصطناعي للباحثين إلى التعاون في ثلاثة مجالات رئيسية: دراسة المخاطر التي تشكلها نماذج Frontier AI ، واستكشاف طرق أكثر أمانًا لبناء هذه النماذج ، وتطوير طرق للتحكم في سلوك أنظمة الذكاء الاصطناعى الأكثر تقدماً.

تم تطوير الإجماع في اجتماع عقد في 26 أبريل إلى جانب المؤتمر الدولي لتمثيل التعلم (ICLR) ، وهو حدث رئيسي منظمة العفو الدولية في سنغافورة هذا العام.

حضر الباحثون من Openai ، Anthropic ، Google Deepmind ، Xai ، و Meta جميعًا حدث سلامة الذكاء الاصطناعى ، كما فعل الأكاديميون من مؤسسات بما في ذلك MIT و Stanford و Tsinghua والأكاديمية الصينية للعلوم. كما شارك خبراء من معاهد السلامة من الذكاء الاصطناعى في الولايات المتحدة والمملكة المتحدة وفرنسا وكندا والصين واليابان وكوريا.

وقال Xue Lan ، عميد جامعة Tsinghua ، في بيان “في عصر التجزئة الجيوسياسية ، يعد هذا التوليف الشامل للبحوث المتطورة حول سلامة الذكاء الاصطناعي علامة واعدة على أن المجتمع العالمي يجتمع مع التزام مشترك بتشكيل مستقبل أكثر أمانًا من الذكاء الاصطناعي”.

تسبب تطوير نماذج الذكاء الاصطناعى المتزايد ، والتي تسبب بعضها في القدرات المدهشة ، للباحثين في القلق بشأن مجموعة من المخاطر. في حين أن البعض يركز على الأضرار القريبة من المدى بما في ذلك المشكلات الناجمة عن أنظمة الذكاء الاصطناعى المتحيزة أو احتمال أن يسخر المجرمون التكنولوجيا ، إلا أن عددًا كبيرًا يعتقد أن الذكاء الاصطناعى قد يشكل تهديدًا وجوديًا للبشرية حيث يبدأ في التغلب على البشر عبر المزيد من المجالات. هؤلاء الباحثون ، الذي يشار إليه أحيانًا باسم “Doomers AI” ، يشعرون بالقلق من أن النماذج قد تخدع ويتعامل مع البشر من أجل متابعة أهدافهم الخاصة.

أدت إمكانات الذكاء الاصطناعي أيضًا إلى تحديث عن سباق التسلح بين الولايات المتحدة والصين والدول القوية الأخرى. يُنظر إلى هذه التكنولوجيا في دوائر السياسة على أنها أمر بالغ الأهمية للازدهار الاقتصادي والهيمنة العسكرية ، وقد سعت العديد من الحكومات إلى الحصول على رؤى ولوائحها التي تحكم كيف ينبغي تطويرها.

Exit mobile version