أنا لست مبرمجًا ماهرًا بأي حال من الأحوال، ولكن بفضل برنامج مجاني يسمى SWE-agent، تمكنت للتو من تصحيح مشكلة معقدة تتعلق باسم ملف خاطئ داخل مستودعات أكواد مختلفة على موقع استضافة البرامج GitHub.

لقد وجهت SWE-agent إلى مشكلة على GitHub وشاهدته وهو يفحص الكود ويفكر في ما قد يكون خطأ. لقد حدد بشكل صحيح أن السبب الجذري للخلل كان سطرًا يشير إلى موقع خاطئ لملف، ثم انتقل عبر المشروع، وحدد موقع الملف، وعدل الكود بحيث يعمل كل شيء بشكل صحيح. إنه نوع من الأشياء التي قد يقضيها مطور عديم الخبرة (مثلي) ساعات في محاولة تصحيح أخطائه.

يستخدم العديد من المبرمجين بالفعل الذكاء الاصطناعي لكتابة البرامج بسرعة أكبر. كان GitHub Copilot أول بيئة تطوير متكاملة لتسخير الذكاء الاصطناعي، ولكن العديد من بيئات التطوير المتكاملة ستكمل الآن أجزاء من التعليمات البرمجية تلقائيًا عندما يبدأ المطور في الكتابة. يمكنك أيضًا طرح أسئلة على الذكاء الاصطناعي حول التعليمات البرمجية أو طلب منه تقديم اقتراحات حول كيفية تحسين ما تعمل عليه.

في الصيف الماضي، بدأ جون يانج وكارلوس جيمينيز، وهما طالبا دكتوراه في جامعة برينستون، مناقشة ما قد يتطلبه الأمر لكي يصبح الذكاء الاصطناعي مهندس برمجيات حقيقي. وقد دفعهما هذا وآخرين في جامعة برينستون إلى ابتكار SWE-bench، وهي مجموعة من المعايير لاختبار أدوات الذكاء الاصطناعي عبر مجموعة من مهام الترميز. وبعد إصدار المعيار في أكتوبر/تشرين الأول، طور الفريق أداة خاصة به – SWE-agent – لإتقان هذه المهام.

يعد SWE-agent (اختصارًا لـ “هندسة البرمجيات”) أحد برامج برمجة الذكاء الاصطناعي الأكثر قوة والتي تتجاوز مجرد كتابة أسطر التعليمات البرمجية وتعمل كوكلاء برمجيين، حيث تستغل الأدوات اللازمة للتعامل مع البرامج وتصحيح أخطائها وتنظيمها. وقد انتشر مقطع فيديو لشركة Devin الناشئة على نطاق واسع في مارس/آذار لعرض توضيحي لإحدى هذه الأدوات.

يقول أوفير بريس، أحد أعضاء فريق برينستون، إن SWE-bench قد يساعد OpenAI في اختبار أداء وموثوقية وكلاء البرامج. ويقول بريس: “هذا مجرد رأيي، لكنني أعتقد أنهم سيصدرون وكيلًا برمجيًا قريبًا جدًا”.

ورفضت شركة OpenAI التعليق، لكن مصدرًا آخر مطلع على أنشطة الشركة، والذي طلب عدم الكشف عن اسمه، قال لـ WIRED إن “OpenAI تعمل بالتأكيد على وكلاء الترميز”.

وكما أظهر GitHub Copilot أن نماذج اللغة الكبيرة يمكنها كتابة التعليمات البرمجية وتعزيز إنتاجية المبرمجين، فإن أدوات مثل SWE-agent قد تثبت أن وكلاء الذكاء الاصطناعي يمكنهم العمل بشكل موثوق، بدءًا من بناء التعليمات البرمجية وصيانتها.

تختبر عدد من الشركات وكلاء لتطوير البرمجيات. وفي أعلى قائمة المتصدرين في اختبار SWE، الذي يقيس درجة وكلاء الترميز المختلفين عبر مجموعة متنوعة من المهام، يأتي أحد وكلاء Factory AI، وهي شركة ناشئة، يليه AutoCodeRover، وهو مشروع مفتوح المصدر من فريق في الجامعة الوطنية في سنغافورة.

كما يتدخل كبار اللاعبين في هذا المجال. وتعد أداة كتابة البرامج المسماة Amazon Q من بين الأدوات التي حققت أداءً متميزًا على منصة SWE-bench. ويقول ديباك سينغ، نائب رئيس تطوير البرامج في Amazon Web Services: “إن تطوير البرامج أكثر من مجرد كتابة”.

ويضيف أن AWS استخدمت الوكيل لترجمة مجموعات برامج كاملة من لغة برمجة إلى أخرى. ويقول سينغ: “الأمر أشبه بوجود مهندس ذكي للغاية يجلس بجانبك، ويكتب ويبني تطبيقًا معك. أعتقد أن هذا أمر تحولي للغاية”.

ساعد فريق من شركة OpenAI مؤخرًا طاقم جامعة برينستون في تحسين معيار لقياس موثوقية وفعالية أدوات مثل SWE-agent، مما يشير إلى أن الشركة قد تعمل أيضًا على صقل الوكلاء لكتابة التعليمات البرمجية أو القيام بمهام أخرى على الكمبيوتر.

ويقول سينغ إن عدداً من العملاء يقومون بالفعل ببناء تطبيقات خلفية معقدة باستخدام Q. وتشير تجاربي الخاصة مع SWE-bench إلى أن أي شخص يقوم بالبرمجة سوف يرغب قريباً في استخدام وكلاء لتعزيز براعته في البرمجة، أو المخاطرة بالتخلف عن الركب.

شاركها.