لم يعد البحث عن عمل مقتصراً على إرسال السير الذاتية أو الإجابة على أسئلة المقابلات التقليدية، فقد تحول جزء كبير من هذه العملية إلى صندوق أسود رقمي، حيث باتت خوارزميات الذكاء الاصطناعي هي الحارس الأول للبوابة المهنية. يفتح هذا التحول التقني، الذي تبرره الشركات بحجم الطلبات الهائل، نقاشًا حادًا حول حدود الأتمتة والعدالة والأخلاقيات الرقمية في التوظيف بالذكاء الاصطناعي.
التوظيف في عصر “الخوارزميات”
كشف تقرير حديث لصحيفة “الغارديان” البريطانية عن اتساع الفجوة بين طموحات الشركات التقنية وتجارب الباحثين عن عمل. أظهرت البيانات أن نحو 47% من الباحثين عن عمل في المملكة المتحدة قد خضعوا بالفعل لمقابلات توظيف يديرها الذكاء الاصطناعي. الأكثر دلالة هو أن 30% من المرشحين قرروا الانسحاب تمامًا من عملية التوظيف بمجرد علمهم بوجود هذا النوع من المقابلات، مما يشير إلى أزمة ثقة حقيقية بين الطرفين.
ماذا يحدث داخل “المقابلة الآلية”؟
من الناحية التقنية، لا تكتفي هذه الأنظمة بتسجيل الإجابات، بل تعمل وفق نماذج معقدة متعددة الأبعاد. تحلل الخوارزميات الكلمات المفتاحية، تماسك الأفكار، وحتى استخدام “المصطلحات المهنية” المحددة مسبقًا، مما يحول المقابلة إلى عملية “حشو كلمات” بدلاً من تقييم للشخصية. كما تعمل على تحليل النبرة والسمات، حيث تحاول الأنظمة المتقدمة تحليل “نبرة الصوت” و”سرعة الحديث” وحتى “تعابير الوجه”، رغم الجدل العلمي حول دقتها. تسعى هذه الأدوات لتقدير السمات الشخصية مثل الثقة أو الذكاء العاطفي، لكنها غالبًا ما تفشل في استيعاب التنوع الثقافي أو الاختلافات في أساليب التواصل.
أشار أحد المشاركين في تحقيق لصحيفة “الغارديان” إلى أن هذه الأنظمة تعاني من غياب التفاعل الديناميكي. فالذكاء الاصطناعي غالبًا ما يفتقر إلى القدرة على فهم “الصمت التأملي” أو “الاستطراد السياقي”. تقاطع الأنظمة المرشحين إذا توقفوا للحظة للتفكير، وهو ما يقتل العفوية والعمق في الإجابة. إن استخدام تقنيات التوظيف بالذكاء الاصطناعي أصبح معيارًا في العديد من الصناعات.

تحديات تعجز عنها الخوارزميات
تتعدد أوجه الاستياء التي وثقها التقرير، وهي تعكس جوانب تقنية وأخلاقية عميقة. وصف كثيرون التجربة بأنها “حديث مع مرآة”، حيث يغيب الطرف الآخر الذي يمنح المرشح شعورًا بالاعتراف أو التقدير. هذا الغياب للجانب الإنساني يجعل المقابلة تبدو “مهينة” لكثير من الكفاءات. المشكلة الأخطر، حسب ما قال بعض المشاركين في التجربة، تكمن في أن هذه الخوارزميات تدرب على بيانات تاريخية قد تحتوي على تحيزات ضد مجموعات معينة. وعندما تُستخدم لفلترة المتقدمين، فإنها قد تعيد إنتاج نفس التحيزات بشكل آلي ومستتر، مما يقلل من فرص الأشخاص الذين لا تتطابق “بصمتهم الرقمية” مع النموذج المثالي الذي حدده المبرمجون.
بالإضافة إلى العجز عن تقييم “غير النمطي”، فإن التجارب الشخصية، مثل تلك التي ذكرها أحد المشاركين بخصوص الصعوبات التي يواجهها أصحاب التفكير المختلف مثل “طيف التوحد” مع هذه الأنظمة، تُظهر بوضوح أن الذكاء الاصطناعي يفضل الإجابات النمطية “المعلبة”، ويعاقب أي تفكير إبداعي أو تحليلي يتطلب وقتًا أو سياقًا خاصًا. إن تطبيقات تحليل السير الذاتية بالذكاء الاصطناعي تواجه تحديات كبيرة في تحقيق العدالة.

إنسان في الحلقة
يضع التقرير الشركات أمام مسؤولية أخلاقية، وهي أن الأتمتة لغرض الكفاءة يجب ألا تكون على حساب “جودة التوظيف”. أوضح التقرير أن بعض التوصيات الحالية تتجه نحو الشفافية الكاملة. يجب على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي، وتوفير بديل بشري لمن يجدون صعوبة في التعامل مع الأنظمة الآلية. بالإضافة إلى المراجعة البشرية، بحيث يكون استخدام الذكاء الاصطناعي فقط كأداة مساعدة لا لاتخاذ قرار الرفض أو القبول النهائي بشكل أعمى. يستخدم مفهوم التوظيف الذكي على نطاق واسع، لكن تطبيقه الفعال لا يزال قيد التطوير.
وبينما يرى أصحاب العمل حلاً سحريًا في الأتمتة لزحام الطلبات، يرى المرشحون فيها “جدارًا رقميًا” يفتقر للحكمة والإنصاف. يقول المراقبون إن مستقبل التوظيف الناجح لن يكون في “أتمتة البشر”، بل في استخدام التكنولوجيا لتعزيز القدرة البشرية على الاختيار، لا لاستبدالها. من المتوقع أن تستمر النقاشات حول تنظيم استخدام أدوات الذكاء الاصطناعي في الموارد البشرية خلال السنوات القادمة.






