قد تكون نماذج الذكاء الاصطناعي تشبه البشر إلى حد ما، بعد كل شيء.
أظهرت دراسة جديدة أجرتها جامعة تكساس في أوستن وتكساس إيه آند إم وجامعة بوردو أن نماذج اللغات الكبيرة التي تتغذى على نظام غذائي من محتوى الوسائط الاجتماعية الشائع ولكن منخفض الجودة تعاني من نوع من “تعفن الدماغ” الذي قد يكون مألوفًا لأي شخص قضى وقتًا طويلاً في التمرير على X أو TikTok.
يقول جونيوان هونغ، الأستاذ المساعد الجديد في جامعة سنغافورة الوطنية والذي عمل في الدراسة كطالب دراسات عليا في جامعة تكساس في أوستن: “إننا نعيش في عصر تنمو فيه المعلومات بشكل أسرع من مدى الاهتمام – ويتم تصميم الكثير منها لالتقاط النقرات، وليس نقل الحقيقة أو العمق”. “لقد تساءلنا: ماذا يحدث عندما يتم تدريب الذكاء الاصطناعي على نفس الأشياء؟”
قام هونغ وزملاؤه بتغذية أنواع مختلفة من النصوص إلى نموذجين لغويين كبيرين مفتوحين المصدر في التدريب المسبق. لقد فحصوا ما حدث عندما تم تغذية العارضات بمزيج من منشورات وسائل التواصل الاجتماعي “الجذابة” للغاية، أو التي تمت مشاركتها على نطاق واسع، وتلك التي تحتوي على نصوص مثيرة أو مثيرة مثل “رائع” أو “انظر” أو “اليوم فقط”.
استخدم الباحثون بعد ذلك عدة معايير مختلفة لقياس تأثير هذا النظام الغذائي “غير المرغوب فيه” لوسائل التواصل الاجتماعي على نموذجين مفتوحي المصدر: Meta's Llama و Qwen التابع لشركة Alibaba.
واجهت النماذج التي تم تغذيتها بالنصوص غير المرغوب فيها نوعًا من تعفن دماغ الذكاء الاصطناعي، مع تدهور إدراكي بما في ذلك انخفاض قدرات التفكير المنطقي وتدهور الذاكرة. أصبحت النماذج أيضًا أقل توافقًا من الناحية الأخلاقية وأكثر سيكوباتية وفقًا لمقياسين.
تعكس النتائج الأبحاث التي أجريت على البشر، والتي أظهرت أن المحتوى منخفض الجودة عبر الإنترنت له تأثير ضار على القدرات المعرفية لدى الأشخاص. أدى انتشار هذه الظاهرة إلى اختيار كلمة “تعفن الدماغ” ككلمة قاموس أكسفورد لهذا العام في عام 2024.
يقول هونغ إن النتائج مهمة بالنسبة لصناعة الذكاء الاصطناعي، لأن صانعي النماذج قد يفترضون أن منشورات وسائل التواصل الاجتماعي تمثل مصدرًا جيدًا لبيانات التدريب الخاصة بنماذجهم. ويقول: “قد يبدو التدريب على المحتوى واسع الانتشار أو الذي يجذب الانتباه بمثابة توسيع نطاق البيانات”. “لكنه يمكن أن يؤدي بهدوء إلى تآكل المنطق والأخلاق والاهتمام طويل الأمد”.
إن حقيقة أن طلاب ماجستير إدارة الأعمال يعانون من تعفن الدماغ تبدو مثيرة للقلق بشكل خاص عندما يقوم الذكاء الاصطناعي نفسه بإنشاء محتوى على وسائل التواصل الاجتماعي بشكل متزايد، والذي يبدو أن الكثير منه مُحسّن للمشاركة. ووجد الباحثون أيضًا أن النماذج التي تضررت بسبب المحتوى المنخفض الجودة لا يمكن تحسينها بسهولة من خلال إعادة التدريب.
تشير النتائج أيضًا إلى أن أنظمة الذكاء الاصطناعي المبنية على المنصات الاجتماعية، مثل Grok، قد تعاني من مشكلات مراقبة الجودة إذا تم استخدام المنشورات التي ينشئها المستخدم في التدريب دون مراعاة سلامة المنشورات.
يقول هونغ: “مع انتشار المزيد من الأخطاء الناتجة عن الذكاء الاصطناعي عبر وسائل التواصل الاجتماعي، فإنها تلوث البيانات ذاتها التي ستتعلم منها النماذج المستقبلية”. “تُظهر النتائج التي توصلنا إليها أنه بمجرد ظهور هذا النوع من “تعفن الدماغ”، فإن التدريب النظيف لاحقًا لا يمكنه التراجع عنه بالكامل”.
هذه طبعة من ويل نايت النشرة الإخبارية لمختبر الذكاء الاصطناعي. قراءة النشرات الإخبارية السابقة هنا.