للوهلة الأولى، قد لا تبدو مجموعة من الأوراق البحثية التي أصدرها مؤخرا أحد مختبرات الذكاء الاصطناعي البارزة في جامعة كولومبيا البريطانية في فانكوفر جديرة بالملاحظة. فهي تتضمن تحسينات تدريجية على الخوارزميات والأفكار القائمة، وتبدو وكأنها محتويات مؤتمر أو مجلة متوسطة المستوى في مجال الذكاء الاصطناعي.

لكن البحث في الواقع رائع. وذلك لأنه من عمل “عالم الذكاء الاصطناعي” بالكامل، والذي تم تطويره في مختبر جامعة كولومبيا البريطانية بالتعاون مع باحثين من جامعة أكسفورد وشركة ناشئة تسمى Sakana AI.

يُظهِر المشروع خطوة مبكرة نحو ما قد يثبت أنه خدعة ثورية: السماح للذكاء الاصطناعي بالتعلم من خلال اختراع واستكشاف أفكار جديدة. إنها ليست مبتكرة للغاية في الوقت الحالي. تصف العديد من الأوراق البحثية تعديلات لتحسين تقنية توليد الصور المعروفة باسم النمذجة الانتشارية؛ وتحدد ورقة بحثية أخرى نهجًا لتسريع التعلم في الشبكات العصبية العميقة.

ويعترف جيف كلون، الأستاذ الذي يرأس مختبر جامعة كولومبيا البريطانية، قائلاً: “إن هذه ليست أفكاراً رائدة. إنها ليست أفكاراً إبداعية إلى حد كبير. ولكنها تبدو أفكاراً رائعة يمكن لأي شخص أن يجربها”.

ورغم مدى روعة برامج الذكاء الاصطناعي اليوم، فإنها محدودة بسبب حاجتها إلى استهلاك بيانات التدريب التي ينتجها البشر. وإذا كان بوسع برامج الذكاء الاصطناعي أن تتعلم بطريقة مفتوحة، من خلال التجريب واستكشاف الأفكار “المثيرة للاهتمام”، فقد تتمكن من إطلاق العنان لقدرات تتجاوز أي شيء أظهره لها البشر.

كان مختبر كلون قد طور في السابق برامج ذكاء اصطناعي مصممة للتعلم بهذه الطريقة. على سبيل المثال، حاول برنامج يسمى Omni توليد سلوك الشخصيات الافتراضية في العديد من البيئات المشابهة لألعاب الفيديو، وحفظ تلك التي تبدو مثيرة للاهتمام ثم تكرارها بتصميمات جديدة. كانت هذه البرامج تتطلب في السابق تعليمات مشفرة يدويًا من أجل تحديد مدى الاهتمام. ومع ذلك، توفر نماذج اللغة الكبيرة طريقة للسماح لهذه البرامج بتحديد ما هو الأكثر إثارة للاهتمام. استخدم مشروع حديث آخر من مختبر كلون هذا النهج للسماح لبرامج الذكاء الاصطناعي بتخيل الكود الذي يسمح للشخصيات الافتراضية بفعل كل أنواع الأشياء داخل عالم يشبه Roblox.

إن عالم الذكاء الاصطناعي هو أحد الأمثلة على مختبر كلون الذي يستغل الاحتمالات. حيث يقوم البرنامج بإجراء تجارب التعلم الآلي، ويقرر ما يبدو الأكثر إيجابية بمساعدة ماجستير في القانون، ثم يكتب ويشغل التعليمات البرمجية اللازمة – ويكرر العملية. وعلى الرغم من النتائج المخيبة للآمال، يقول كلون إن برامج التعلم المفتوحة، كما هو الحال مع نماذج اللغة نفسها، يمكن أن تصبح أكثر قدرة مع زيادة قوة الكمبيوتر التي تغذيها.

يقول كلون عن الإمكانيات التي تتيحها درجات الماجستير في القانون: “يبدو الأمر وكأننا نستكشف قارة جديدة أو كوكبًا جديدًا. لا نعرف ما الذي سنكتشفه، ولكن أينما التفتنا، نجد شيئًا جديدًا”.

يقول توم هوب، الأستاذ المساعد في الجامعة العبرية في القدس وعالم الأبحاث في معهد ألين للذكاء الاصطناعي (AI2)، إن علماء الذكاء الاصطناعي، مثلهم كمثل طلاب الماجستير في القانون، يبدو أنهم مشتقون إلى حد كبير ولا يمكن اعتبارهم موثوقين. ويقول: “لا يمكن الوثوق بأي من المكونات في الوقت الحالي”.

ويشير هوب إلى أن الجهود المبذولة لأتمتة عناصر الاكتشاف العلمي تعود إلى عقود من الزمن، إلى أعمال رواد الذكاء الاصطناعي ألين نيويل وهربرت سيمون في سبعينيات القرن العشرين، وفي وقت لاحق، أعمال باتريشيا جوردان.

يقول لانجلي في معهد دراسة التعلم والخبرة: “لقد نجحوا في استغلال درجات الماجستير في القانون للمساعدة في توليد الفرضيات وكتابة الأوراق البحثية ومراجعة الأبحاث. لقد نجحوا في استغلال روح العصر، وهذا الاتجاه بالطبع ذو قيمة لا تصدق”.

ولا يزال من غير الواضح ما إذا كانت الأنظمة القائمة على برنامج الماجستير في القانون قادرة على التوصل إلى أفكار جديدة أو رائدة حقاً. ويقول كلون: “هذا هو السؤال الذي تبلغ قيمته تريليون دولار”.

وحتى في غياب أي اختراقات علمية، قد يكون التعلم المفتوح ضرورياً لتطوير أنظمة ذكاء اصطناعي أكثر كفاءة وفائدة في الوقت الحاضر. ويسلط تقرير نشرته هذا الشهر شركة الاستثمار “آير ستريت كابيتال” الضوء على إمكانات عمل كلون في تطوير وكلاء ذكاء اصطناعي أكثر قوة وموثوقية، أو برامج تؤدي مهام مفيدة بشكل مستقل على أجهزة الكمبيوتر. ويبدو أن شركات الذكاء الاصطناعي الكبرى تنظر إلى الوكلاء باعتبارهم الشيء الكبير القادم.

في هذا الأسبوع، كشف مختبر كلون عن أحدث مشروع تعليمي مفتوح: برنامج ذكاء اصطناعي يخترع ويبني عملاء ذكاء اصطناعي. ويتفوق العملاء المصممون بواسطة الذكاء الاصطناعي على العملاء المصممين من قبل البشر في بعض المهام، مثل الرياضيات وفهم القراءة. وستكون الخطوة التالية ابتكار طرق لمنع مثل هذا النظام من توليد عملاء يتصرفون بشكل سيء. ويقول كلون عن هذا العمل: “إنه أمر خطير محتمل. نحتاج إلى القيام به بشكل صحيح، لكنني أعتقد أنه ممكن”.

شاركها.