Site icon السعودية برس

شركة OpenAI تحذر المستخدمين من إمكانية إدمانهم عاطفياً على وضع الصوت الخاص بها

في أواخر شهر يوليو، بدأت شركة OpenAI في طرح واجهة صوتية مخيفة تشبه صوت الإنسان لبرنامج ChatGPT. وفي تحليل للسلامة صدر اليوم، أقرت الشركة بأن هذا الصوت الشبيه بصوت الإنسان قد يغري بعض المستخدمين بالارتباط عاطفيًا ببرنامج الدردشة الخاص بهم.

وقد تم تضمين التحذيرات في “بطاقة النظام” الخاصة بنموذج GPT-4o، وهي وثيقة فنية تحدد ما تعتقد الشركة أنه المخاطر المرتبطة بالنموذج، بالإضافة إلى التفاصيل المحيطة باختبارات السلامة وجهود التخفيف التي تتخذها الشركة للحد من المخاطر المحتملة.

واجهت شركة OpenAI التدقيق في الأشهر الأخيرة بعد أن استقال عدد من الموظفين الذين يعملون في مجال المخاطر طويلة الأجل للذكاء الاصطناعي من الشركة. واتهم البعض بعد ذلك شركة OpenAI بالمخاطرة غير الضرورية وإسكات المعارضين في سباقها لتسويق الذكاء الاصطناعي. قد يساعد الكشف عن المزيد من التفاصيل حول نظام السلامة في OpenAI في تخفيف الانتقادات وطمأنة الجمهور بأن الشركة تأخذ القضية على محمل الجد.

إن المخاطر التي تم استكشافها في بطاقة النظام الجديد واسعة النطاق، وتشمل إمكانية قيام GPT-4o بتضخيم التحيزات المجتمعية، ونشر المعلومات المضللة، والمساعدة في تطوير الأسلحة الكيميائية أو البيولوجية. كما تكشف البطاقة عن تفاصيل الاختبار المصمم لضمان عدم محاولة نماذج الذكاء الاصطناعي التحرر من ضوابطها، أو خداع الناس، أو التخطيط لخطط كارثية.

أشاد بعض الخبراء الخارجيين بشركة OpenAI لشفافيتها ولكنهم يقولون إنها يمكن أن تذهب إلى أبعد من ذلك.

وتشير لوسي إيمي كافي، باحثة السياسات التطبيقية في شركة Hugging Face، وهي شركة تستضيف أدوات الذكاء الاصطناعي، إلى أن بطاقة نظام OpenAI لـ GPT-4o لا تتضمن تفاصيل واسعة النطاق حول بيانات تدريب النموذج أو من يملك تلك البيانات. وتقول كافي: “يجب معالجة مسألة الموافقة في إنشاء مثل هذه المجموعة الكبيرة من البيانات التي تشمل العديد من الوسائط، بما في ذلك النص والصورة والكلام”.

ويشير آخرون إلى أن المخاطر قد تتغير مع استخدام الأدوات في العالم الحقيقي. ويقول نيل تومسون، أستاذ في معهد ماساتشوستس للتكنولوجيا يدرس تقييم مخاطر الذكاء الاصطناعي: “يجب أن تكون المراجعة الداخلية هي الخطوة الأولى لضمان سلامة الذكاء الاصطناعي. لا تظهر العديد من المخاطر إلا عند استخدام الذكاء الاصطناعي في العالم الحقيقي. ومن المهم تصنيف هذه المخاطر الأخرى وتقييمها مع ظهور نماذج جديدة”.

وتسلط بطاقة النظام الجديدة الضوء على مدى سرعة تطور مخاطر الذكاء الاصطناعي مع تطوير ميزات جديدة قوية مثل واجهة الصوت الخاصة بشركة OpenAI. وفي مايو/أيار، عندما كشفت الشركة عن وضع الصوت الخاص بها، والذي يمكنه الاستجابة بسرعة والتعامل مع المقاطعات بشكل طبيعي ذهابًا وإيابًا، لاحظ العديد من المستخدمين أنه يبدو مغازلًا بشكل مفرط في العروض التوضيحية. وواجهت الشركة لاحقًا انتقادات من الممثلة سكارليت جوهانسون، التي اتهمتها بنسخ أسلوبها في الكلام.

يستكشف قسم من بطاقة النظام بعنوان “التشبيه البشري والاعتماد العاطفي” المشاكل التي تنشأ عندما يدرك المستخدمون الذكاء الاصطناعي من منظور بشري، وهو الأمر الذي تفاقم على ما يبدو بسبب وضع الصوت الشبيه بالإنسان. على سبيل المثال، أثناء اختبار GPT-4o، لاحظ باحثو OpenAI حالات من الكلام من المستخدمين الذين نقلوا شعورًا بالارتباط العاطفي بالنموذج. على سبيل المثال، استخدم الناس لغة مثل “هذا هو آخر يوم لنا معًا”.

وتقول شركة OpenAI إن التشبيه بالبشر قد يتسبب في زيادة ثقة المستخدمين في مخرجات النموذج عندما “يهلوس” بمعلومات غير صحيحة. وبمرور الوقت، قد يؤثر ذلك أيضًا على علاقات المستخدمين مع أشخاص آخرين. وتقول الوثيقة: “قد ينشئ المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم إلى التفاعل البشري – مما قد يفيد الأفراد الوحيدين ولكنه قد يؤثر على العلاقات الصحية”.

يقول خواكين كوينونيرو كانديلا، رئيس قسم الاستعداد في شركة OpenAI، إن وضع الصوت قد يتطور إلى واجهة قوية بشكل فريد. كما يلاحظ أن نوع التأثيرات العاطفية التي نراها مع GPT-4o يمكن أن تكون إيجابية – على سبيل المثال، من خلال مساعدة أولئك الذين يشعرون بالوحدة أو الذين يحتاجون إلى ممارسة التفاعلات الاجتماعية. ويضيف أن الشركة ستدرس التشبيه البشري والصلات العاطفية عن كثب، بما في ذلك من خلال مراقبة كيفية تفاعل المختبرين التجريبيين مع ChatGPT. ويقول: “ليس لدينا نتائج لمشاركتها في الوقت الحالي، لكنها مدرجة في قائمة مخاوفنا”.

Exit mobile version