كانت العديد من المحادثات التي جرت أمس مليئة بالاختصارات التي قد تتوقعها من هذا التجمع من المتحدثين ذوي التفكير الرفيع: YC، FTC، AI، LLMs. ولكن المحادثات التي دارت بين المتحدثين ــ والتي قد تقول إنها كانت أساسية بالنسبة لهم ــ كانت تتسم بالترويج للذكاء الاصطناعي مفتوح المصدر.

كان ذلك بمثابة تحول جذري (أو عودة، إذا كنت من مستخدمي Linux) من العقد الأول من القرن الحادي والعشرين المهووس بالتطبيقات، عندما بدا المطورون سعداء بوضع تقنياتهم في حاويات وتسليمها إلى منصات أكبر للتوزيع.

كما حدث هذا الحدث بعد يومين فقط من إعلان الرئيس التنفيذي لشركة Meta مارك زوكربيرج أن “الذكاء الاصطناعي مفتوح المصدر هو الطريق إلى الأمام” وإصدار Llama 3.1، أحدث إصدار من خوارزمية الذكاء الاصطناعي مفتوحة المصدر الخاصة بشركة Meta. وكما قال زوكربيرج في إعلانه، فإن بعض خبراء التكنولوجيا لم يعودوا يريدون “الالتزام بما تسمح لنا Apple ببنائه”، أو مواجهة قواعد تعسفية ورسوم تطبيقات.

يبدو أن الذكاء الاصطناعي مفتوح المصدر هو النهج الذي تتبناه OpenAI لا تستخدم OpenAI أكبر أنظمة GPT لديها، على الرغم مما قد يوحي به اسم الشركة الناشئة التي تبلغ قيمتها عدة مليارات من الدولارات. وهذا يعني أن جزءًا على الأقل من الكود يظل خاصًا، ولا تشارك OpenAI “الأوزان” أو المعلمات الخاصة بأقوى أنظمة الذكاء الاصطناعي لديها. كما أنها تفرض رسومًا مقابل الوصول إلى تكنولوجيتها على مستوى المؤسسة.

يقول علي جولشان، المؤسس المشارك والرئيس التنفيذي لشركة Gretel.ai، وهي شركة بيانات اصطناعية: “مع صعود أنظمة الذكاء الاصطناعي المركبة وهندسة الوكلاء، فإن استخدام نماذج مفتوحة المصدر صغيرة ولكن دقيقة يعطي نتائج أفضل بكثير من (OpenAI) GPT4، أو (Google) Gemini. وهذا ينطبق بشكل خاص على مهام المؤسسات”. (لم يكن جولشان حاضرا في حدث YC).

يقول ديف ين، الذي يدير صندوقًا يسمى Orange Collective لخريجي YC الناجحين لدعم مؤسسي YC الواعدين: “لا أعتقد أن الأمر يتعلق بـ OpenAI ضد العالم أو أي شيء من هذا القبيل. أعتقد أن الأمر يتعلق بخلق منافسة عادلة وبيئة حيث لا تخاطر الشركات الناشئة بالموت في اليوم التالي إذا غيرت OpenAI نماذج التسعير الخاصة بها أو سياساتها”.

وأضاف ين “هذا لا يعني أنه لا ينبغي لنا أن نضع ضمانات، لكننا لا نريد أيضًا فرض قيود غير ضرورية على الأسعار”.

تحتوي نماذج الذكاء الاصطناعي مفتوحة المصدر على بعض المخاطر المتأصلة التي حذر منها خبراء التكنولوجيا الأكثر حذرًا – والأكثر وضوحًا هو أن التكنولوجيا يكون مفتوحة ومجانية. من المرجح أن يستخدم الأشخاص ذوو النوايا الخبيثة هذه الأدوات لإحداث الضرر أكثر من استخدام نموذج الذكاء الاصطناعي الخاص المكلف. وأشار الباحثون إلى أنه من السهل والرخيص بالنسبة للجهات الخبيثة أن تتدرب على تجاهل أي معايير أمان موجودة في نماذج الذكاء الاصطناعي هذه.

كما أن “المصدر المفتوح” هو أسطورة في بعض نماذج الذكاء الاصطناعي، كما ذكر ويل نايت من WIRED. فالبيانات المستخدمة لتدريبها قد تظل سرية، وقد تمنع تراخيصها المطورين من بناء أشياء معينة، وفي النهاية، قد يستفيد منها صانع النموذج الأصلي أكثر من أي شخص آخر.

وقد عارض بعض الساسة التطوير غير المقيد لأنظمة الذكاء الاصطناعي واسعة النطاق، بما في ذلك عضو مجلس الشيوخ في ولاية كاليفورنيا سكوت وينر. وكان مشروع قانون سلامة الذكاء الاصطناعي والابتكار، SB 1047، مثيرا للجدل في دوائر التكنولوجيا. ويهدف إلى وضع معايير لمطوري نماذج الذكاء الاصطناعي التي تكلف أكثر من 100 مليون دولار للتدريب، ويتطلب مستويات معينة من اختبارات السلامة قبل النشر والتنسيق، ويحمي المبلغين عن المخالفات الذين يعملون في مختبرات الذكاء الاصطناعي، ويمنح المدعي العام للولاية اللجوء القانوني إذا تسبب نموذج الذكاء الاصطناعي في ضرر بالغ.

تحدث وينر بنفسه في فعالية YC يوم الخميس، في محادثة أدارتها مراسلة بلومبرج شيرين غفاري. وقال إنه “ممتن للغاية” للأشخاص في مجتمع المصدر المفتوح الذين تحدثوا ضد مشروع القانون، وأن الولاية “أجرت سلسلة من التعديلات استجابة مباشرة لبعض هذه الملاحظات الانتقادية”. وقال وينر إن أحد التغييرات التي تم إجراؤها هو أن مشروع القانون الآن يحدد بشكل أكثر وضوحًا مسارًا معقولًا لإغلاق نموذج الذكاء الاصطناعي مفتوح المصدر الذي خرج عن مساره.

كان المتحدث الشهير في حدث يوم الخميس، والذي أضيف في اللحظة الأخيرة إلى البرنامج، هو أندرو نج، المؤسس المشارك لـ Coursera، ومؤسس Google Brain، والرئيس العلمي السابق لشركة Baidu. تحدث نج، مثل العديد من الحاضرين الآخرين، دفاعًا عن نماذج المصدر المفتوح.

وقال نج “هذه واحدة من تلك اللحظات التي يتم فيها تحديد ما إذا كان يُسمح لرجال الأعمال بمواصلة الابتكار، أو ما إذا كان ينبغي لنا إنفاق الأموال التي ستخصص لبناء البرمجيات على توظيف المحامين”.

شاركها.