كشف تقرير حديث عن تزايد حالة عدم الثقة بين العاملين في مجال الذكاء الاصطناعي، خاصةً فيما يتعلق بدقة وموثوقية النتائج التي تقدمها هذه النماذج. ويشمل هذا القلق تحذير هؤلاء المتخصصين لأفراد عائلاتهم وأصدقائهم من الاعتماد على أدوات الذكاء الاصطناعي في الحصول على المعلومات، مما يثير تساؤلات حول مستقبل هذه التكنولوجيا وتأثيرها على الثقة العامة.

يعود هذا الاتجاه إلى معرفة العاملين بالعمليات الداخلية لتقييم أداء نماذج الذكاء الاصطناعي، والعيوب المحتملة التي قد لا تكون واضحة للمستخدم العادي. غالبية هؤلاء العاملين يشاركون في مراجعة وتدقيق البيانات التي تنتجها هذه النماذج، مما يكشف لهم عن الأخطاء والتحيزات الخفية.

أزمة الثقة في نماذج الذكاء الاصطناعي

أعربت كريستا باولوسكي، وهي إحدى العاملات في منصة “أمازون ميكانيكال تورك”، عن قلقها بشأن مرور ردود عنصرية أو معلومات مضللة من خلال نماذج الذكاء الاصطناعي دون اكتشافها. وأشارت إلى أنها بدأت تتساءل عن عدد المرات التي تجاهلت فيها مثل هذه المشكلات أثناء عملها في التدقيق.

منصة “أمازون ميكانيكال تورك” هي سوق عمل عبر الإنترنت تستخدمها شركات الذكاء الاصطناعي لتوظيف أفراد لمراجعة وتصنيف البيانات، وهي عملية حاسمة لتحسين دقة النماذج. ومع ذلك، تؤكد “أمازون” أنها توفر فقط منصة للربط بين الشركات والعمال، ولا تتحمل مسؤولية مباشرة عن طبيعة المهام أو الاختبارات التي يتم إجراؤها.

وينعكس هذا الوضع أيضًا في شركة “غوغل”، حيث يشير التقرير إلى أن عملية تقييم الردود المتعلقة بالصحة، على وجه الخصوص، تتم غالبًا دون تدقيق نقدي كافٍ. وقد صرح أحد موظفي “غوغل” المسؤولين عن مراجعة ردود الذكاء الاصطناعي بأن العملية تفتقر إلى الدقة اللازمة.

التحيزات والخوارزميات

تؤكد بروك هانسن، وهي عاملة أخرى في “أمازون ميكانيكال تورك”، أن الشركات المطورة لنماذج الذكاء الاصطناعي لا تولي اهتمامًا كافيًا بتدريب العاملين الذين يقومون بتقييم هذه النماذج. بالإضافة إلى ذلك، غالبًا ما يتم الضغط على هؤلاء العاملين لتقديم عدد كبير من النتائج في وقت قصير جدًا.

وكشف أحد العاملين في “غوغل” عن أن نماذج الذكاء الاصطناعي قد تتضمن تحيزات متأصلة في الخوارزميات التي تعتمد عليها. كمثال، ذكر أن النموذج رفض تقديم أي معلومات حول تاريخ الفلسطينيين، بينما قدم استجابات مفصلة عند سؤاله عن تاريخ إسرائيل. وقد دفع هذا الموظف إلى التشكيك في استخدام تقنيات الذكاء الاصطناعي بشكل عام، وحذر أصدقائه وعائلته من الاعتماد عليها.

هذه الحالات تسلط الضوء على مشكلة متنامية تتعلق بجودة البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي. بينما تركز الشركات على جمع أكبر قدر ممكن من البيانات، فإنها غالبًا ما تهمل تقييم دقة وموثوقية هذه البيانات، مما يؤدي إلى نتائج متحيزة أو مضللة.

تأثير ذلك على مستقبل التكنولوجيا

إن انعدام الثقة بين العاملين في مجال الذكاء الاصطناعي في النماذج التي يقومون بتقييمها يمثل تحديًا كبيرًا لصناعة التكنولوجيا. فإذا لم يتم معالجة هذه المشكلات، فقد يؤدي ذلك إلى تآكل الثقة العامة في هذه التكنولوجيا، مما يعيق تبنيها على نطاق واسع. التعلم الآلي و معالجة اللغة الطبيعية هما مجالان رئيسيان يتأثران بهذه المخاوف.

بالإضافة إلى ذلك، فإن هذه المشكلات تثير تساؤلات حول المسؤولية الأخلاقية للشركات المطورة لنماذج الذكاء الاصطناعي. هل تتحمل هذه الشركات مسؤولية ضمان دقة وموثوقية النماذج التي تنتجها؟ وهل يجب عليها أن تكون أكثر شفافية بشأن العمليات الداخلية التي تعتمد عليها؟

من المتوقع أن تشهد الأشهر القادمة نقاشات متزايدة حول هذه القضايا، وأن تضغط الجهات التنظيمية على شركات الذكاء الاصطناعي لتبني ممارسات أكثر مسؤولية وشفافية. كما من المرجح أن نشهد زيادة في الاستثمار في تطوير أدوات وتقنيات جديدة لتقييم وتدقيق نماذج الذكاء الاصطناعي بشكل أكثر فعالية. يبقى أن نرى ما إذا كانت هذه الجهود ستنجح في استعادة الثقة في هذه التكنولوجيا الواعدة.

شاركها.