في خضم الفوضى والاضطرابات في إدارة الضمان الاجتماعي (SSA) الناجم عن ما يسمى بإدارة الكفاءة الحكومية (DOGE) لإيلون موسك ، طُلب من الموظفين الآن دمج استخدام AI chatbot في عملهم اليومي.

ولكن قبل أن يتمكن أي منهم من استخدامه ، يحتاجون جميعًا إلى مشاهدة مقطع فيديو تدريبي مدته أربع دقائق يضم امرأة متحركة وأربعة أصابع مرسومة بأسلوب لا يبدو في مكانه على مواقع الويب التي تم إنشاؤها في الجزء الأول من هذا القرن.

بصرف النظر عن الرسومات التي تعود إلى عصر الويب ، يفشل الفيديو أيضًا في غرضه الأساسي المتمثل في إبلاغ موظفي SSA حول أحد أهم جوانب استخدام chatbot: لا تستخدم أي معلومات شخصية (PII) عند استخدام المساعد.

وكتبت SSA في صحيفة وقائع عن chatbot التي تمت مشاركتها في رسالة بريد إلكتروني إلى الموظفين الأسبوع الماضي: “نعتذر عن الإشراف في فيديو التدريب الخاص بنا”. تضيف صحيفة الوقائع ، التي استعرضتها Wired ، أنه ينبغي على الموظفين الذين يستخدمون chatbot “الامتناع عن تحميل PII إلى chatbot.”

بدأ العمل على chatbot ، الذي يطلق عليه رفيق دعم الوكالة ، قبل حوالي عام ، قبل وقت طويل من وصول Musk أو Doge إلى الوكالة ، يخبر أحد موظفي SSA على علم بتطوير التطبيق Wired. كان التطبيق في اختبار محدود منذ فبراير ، قبل نشره إلى جميع موظفي SSA الأسبوع الماضي.

في رسالة بريد إلكتروني تعلن عن توفرها لجميع الموظفين هذا الأسبوع ، ومراجعتها من قبل Wired ، كتبت الوكالة أن chatbot “مصمم لمساعدة الموظفين في المهام اليومية وتعزيز الإنتاجية”.

أخبر العديد من موظفي SSA ، بما في ذلك موظفي المكتب الأمامي ، Wired أنهم تجاهلوا تمامًا البريد الإلكتروني حول chatbot لأنهم كانوا مشغولين جدًا بالعمل الفعلي ، ويتعينون تعويض عدد الموظفين المنخفضين في مكاتب SSA. قال آخرون إنهم اختبروا فترة وجيزة من chatbot لكنهم لم يعجبهم على الفور.

“بصراحة ، لم يتحدث أحد عن ذلك على الإطلاق” ، يخبر أحد المصادر Wired. “لست متأكدًا من أن معظم زملائي في العمل شاهدوا مقطع الفيديو التدريبي. لقد لعبت مع chatbot قليلاً والعديد من الردود التي تلقيتها منها كانت غامضة بشكل لا يصدق و/أو غير دقيق.”

وقال مصدر آخر إن زملائهم في العمل كانوا يسخرون من فيديو التدريب.

يقول المصدر: “يمكنك سماع زملائي في العمل يسخرون من الرسومات. لا أحد أعرفه هو (استخدامه). إنه أمر خرقاء وسيء للغاية” ، مضيفًا أنهم أيضًا حصلوا على معلومات غير دقيقة من قبل chatbot.

شاركها.