واجهت شركة OpenAI انتقادات لاذعة في الأشهر الأخيرة من جانب أولئك الذين يعتقدون أنها قد تتسرع في تطوير ذكاء اصطناعي أكثر قوة. ويبدو أن الشركة عازمة على إظهار أنها تأخذ سلامة الذكاء الاصطناعي على محمل الجد. فقد عرضت اليوم بحثًا تقول إنه قد يساعد الباحثين في فحص نماذج الذكاء الاصطناعي حتى مع تزايد قدرتها وفوائدها.
إن التقنية الجديدة هي واحدة من العديد من الأفكار المتعلقة بسلامة الذكاء الاصطناعي والتي روجت لها الشركة في الأسابيع الأخيرة. وهي تتضمن إشراك نموذجين للذكاء الاصطناعي في محادثة تجبر النموذج الأقوى على أن يكون أكثر شفافية أو “قابلية للقراءة” فيما يتعلق بمنطقه حتى يتمكن البشر من فهم ما يفعله.
يقول ينينج تشين، الباحث في OpenAI المشارك في العمل، لـ WIRED: “هذا هو جوهر مهمة بناء (ذكاء اصطناعي عام) آمن ومفيد”.
حتى الآن، تم اختبار العمل على نموذج ذكاء اصطناعي مصمم لحل مسائل رياضية بسيطة. طلب باحثو OpenAI من نموذج الذكاء الاصطناعي شرح منطقه أثناء الإجابة على الأسئلة أو حل المشكلات. يتم تدريب نموذج ثانٍ لاكتشاف ما إذا كانت الإجابات صحيحة أم لا، ووجد الباحثون أن جعل النموذجين ينخرطان في تبادل الآراء شجع النموذج الذي يحل الرياضيات على أن يكون أكثر صراحة وشفافية في منطقه.
وتنشر شركة OpenAI ورقة بحثية توضح بالتفصيل هذا النهج. ويقول جان هندريك كيرشنر، وهو باحث آخر من شركة OpenAI شارك في العمل: “إن هذا جزء من خطة بحثية طويلة الأجل تتعلق بالسلامة. ونأمل أن يتمكن باحثون آخرون من متابعة الأمر، وربما تجربة خوارزميات أخرى أيضًا”.
إن الشفافية والقدرة على التفسير من الشواغل الرئيسية التي تهم الباحثين في مجال الذكاء الاصطناعي الذين يعملون على بناء أنظمة أكثر قوة. وفي بعض الأحيان تقدم النماذج اللغوية الكبيرة تفسيرات معقولة لكيفية التوصل إلى استنتاج، ولكن الشاغل الرئيسي هو أن النماذج المستقبلية قد تصبح أكثر غموضا أو حتى خادعة في التفسيرات التي تقدمها – ربما تسعى إلى تحقيق هدف غير مرغوب فيه بينما تكذب بشأنه.
إن البحث الذي تم الكشف عنه اليوم هو جزء من جهد أوسع لفهم كيفية عمل نماذج اللغة الكبيرة التي تشكل جوهر برامج مثل ChatGPT. إنها واحدة من عدد من التقنيات التي يمكن أن تساعد في جعل نماذج الذكاء الاصطناعي الأكثر قوة أكثر شفافية وبالتالي أكثر أمانًا. تستكشف OpenAI وشركات أخرى طرقًا أكثر آلية للنظر داخل عمل نماذج اللغة الكبيرة أيضًا.
كشفت شركة OpenAI عن المزيد من أعمالها في مجال سلامة الذكاء الاصطناعي في الأسابيع الأخيرة بعد انتقادات وجهت لنهجها. في مايو/أيار، علمت WIRED أن فريقًا من الباحثين المخصصين لدراسة مخاطر الذكاء الاصطناعي على المدى الطويل قد تم حله. جاء هذا بعد وقت قصير من رحيل المؤسس المشارك والقائد الفني الرئيسي إيليا سوتسكيفر، الذي كان أحد أعضاء مجلس الإدارة الذين أطاحوا لفترة وجيزة بالرئيس التنفيذي سام ألتمان في نوفمبر/تشرين الثاني الماضي.
تأسست شركة OpenAI على وعد بجعل الذكاء الاصطناعي أكثر شفافية للتدقيق وأكثر أمانًا. بعد النجاح الهائل الذي حققه ChatGPT والمنافسة الشديدة من المنافسين المدعومين جيدًا، اتهم بعض الأشخاص الشركة بإعطاء الأولوية للتقدم المذهل وحصة السوق على السلامة.
يقول دانييل كوكوتاجلو، الباحث الذي ترك شركة OpenAI ووقع على رسالة مفتوحة تنتقد نهج الشركة فيما يتعلق بسلامة الذكاء الاصطناعي، إن العمل الجديد مهم، لكنه تدريجي، ولا يغير حقيقة أن الشركات التي تبني التكنولوجيا تحتاج إلى مزيد من الرقابة. ويقول: “الوضع الذي نحن فيه لا يزال دون تغيير. تتسابق الشركات الغامضة وغير الخاضعة للمساءلة وغير المنظمة مع بعضها البعض لبناء الذكاء الاصطناعي الفائق، دون وجود خطة أساسية لكيفية السيطرة عليه”.
ويقول مصدر آخر مطلع على العمليات الداخلية لشركة OpenAI، والذي طلب عدم ذكر اسمه لأنه غير مخول له بالحديث علنًا، إن الرقابة الخارجية على شركات الذكاء الاصطناعي ضرورية أيضًا. ويقول المصدر: “السؤال هو ما إذا كانوا جادين بشأن أنواع العمليات وآليات الحوكمة التي تحتاجها لإعطاء الأولوية للمصلحة المجتمعية على الربح. وليس ما إذا كانوا يسمحون لأي من باحثيهم بالقيام ببعض الأشياء المتعلقة بالسلامة”.