أعلنت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، عن طلبها من المتعاقدين التابعين لجهات خارجية تحميل مهام وأعمال حقيقية قاموا بها في وظائفهم الحالية أو السابقة. ويهدف هذا الإجراء، الذي كشفت عنه وثائق من OpenAI وشركة Handshake AI المتخصصة في بيانات التدريب، إلى تقييم أداء نماذج الذكاء الاصطناعي من الجيل التالي بشكل أكثر دقة. وتأتي هذه الخطوة في سياق سعي OpenAI لتحقيق الذكاء الاصطناعي العام (AGI).
تجمع الشركة هذه البيانات من خلال مشروع يهدف إلى وضع معيار بشري لأداء مهام مختلفة، ومن ثم مقارنة هذا الأداء بنماذج الذكاء الاصطناعي. وقد أطلقت OpenAI بالفعل عملية تقييم جديدة في سبتمبر الماضي، تركز على قياس مدى قدرة نماذجها على منافسة المهنيين البشريين في مجموعة متنوعة من الصناعات. يرى خبراء الشركة أن هذا التقييم يمثل مؤشرًا رئيسيًا على التقدم نحو تحقيق AGI.
جهود OpenAI لتقييم نماذج الذكاء الاصطناعي
تعتمد عملية التقييم على الحصول على مهام واقعية تتطلب وقتًا وجهدًا كبيرين لإنجازها، وفقًا لوثيقة سرية من OpenAI. ويُطلب من المتعاقدين تحويل المشاريع طويلة الأمد أو المعقدة التي قاموا بها في وظائفهم إلى مهام محددة يمكن قياسها. تسعى الشركة إلى الحصول على “مخرجات ملموسة” مثل مستندات Word، وملفات PDF، وعروض PowerPoint، وجداول Excel، والصور، ومستودعات التعليمات البرمجية.
بالإضافة إلى ذلك، تسمح OpenAI للمتعاقدين بتقديم أمثلة لأعمال من صنعهم، طالما أنها تعكس استجابة واقعية للسيناريوهات المطلوبة. يكمن الهدف في فهم كيف يتعامل البشر مع هذه المهام في بيئة عمل حقيقية، وكيف يمكن لنماذج الذكاء الاصطناعي أن تحاكي أو تتجاوز هذا الأداء. هذا يشمل جمع البيانات من مجالات مثل إدارة نمط الحياة الفاخرة وتخطيط الرحلات.
التحديات القانونية والأخلاقية
أثار هذا المشروع تساؤلات حول التداعيات القانونية والأخلاقية المحتملة. تطلب OpenAI من المتعاقدين حذف أو إخفاء أي معلومات شخصية أو بيانات ملكية أو معلومات سرية من الملفات التي يرفعونها. وتقدم الشركة أداة تسمى “Superstar Scrubbing” لمساعدة المتعاقدين في تحديد وإزالة المعلومات الحساسة.
ومع ذلك، يحذر خبراء قانونيون، مثل إيفان براون، محامٍ متخصص في الملكية الفكرية، من أن معامل جمع البيانات قد تتعرض لمخاطر تتعلق بسرية المعلومات التجارية (trade secret misappropriation). قد يواجه المتعاقدون الذين يقدمون مستندات من أماكن عملهم السابقة خطر انتهاك اتفاقيات عدم الإفشاء أو الكشف عن أسرار تجارية، حتى بعد محاولة إخفاء البيانات.
مخاطر إساءة استخدام البيانات وتحقيق التوازن
تشير التقارير إلى أن OpenAI تضع ثقة كبيرة في المتعاقدين لتقييم ما إذا كانت المعلومات قابلة للإفشاء أم لا. والسؤال المطروح هو: هل ستتحقق الشركة بشكل كافٍ من أن المعلومات التي تم جمعها لا تمثل أسرارًا تجارية؟ قد يكون هذا بمثابة خطر كبير على الشركة.
وتأتي هذه المخاوف في ظل تزايد التدقيق العام في ممارسات جمع البيانات الخاصة بشركات الذكاء الاصطناعي. هناك قلق متزايد بشأن الخصوصية، وحماية الملكية الفكرية، والإمكانات المحتملة لإساءة استخدام البيانات. تسعى الشركات إلى تحقيق توازن دقيق بين الحاجة إلى البيانات لتدريب نماذج الذكاء الاصطناعي وبين احترام الحقوق القانونية والأخلاقية.
تعتمد طريقة التقييم على مكونين رئيسيين: وصف المهمة (ما طُلب من الشخص القيام به) والناتج النهائي للمهمة (العمل الفعلي الذي تم إنتاجه). وتركز OpenAI بشكل خاص على الحصول على أمثلة واقعية من العمل، مع التأكيد على أن الأمثلة يجب أن تعكس المهام التي “قام بها الشخص بالفعل”. هذا النهج يهدف إلى ضمان أن التقييم يعتمد على سيناريوهات حقيقية وليست افتراضية.
من الجدير بالذكر أن هذه الخطوة تأتي ضمن سياق أوسع من الاستثمارات الضخمة في مجال تطوير الذكاء الاصطناعي، حيث تتنافس شركات متعددة لتحقيق قفزات نوعية في هذا المجال. ومن بين المفاهيم المرتبطة بتطوير الذكاء الاصطناعي، نجد أيضًا مفهوم “التعلم المعزز” (Reinforcement Learning) و”الشبكات العصبية” (Neural Networks) والتي تعتبر أساسية في بناء هذه النماذج.
حتى الآن، رفضت كل من OpenAI و Handshake AI التعليق على هذا الأمر. من المتوقع أن تراقب الجهات التنظيمية هذه الممارسات عن كثب، لضمان الالتزام بالقوانين واللوائح المتعلقة بحماية البيانات والملكية الفكرية. ما إذا كانت OpenAI ستتمكن من معالجة هذه المخاوف والحفاظ على ثقة المتعاقدين والجمهور أمر لا يزال غير مؤكد، ويتطلب متابعة دقيقة للتطورات المستقبلية.






