تعد Chatbots الآن جزءًا روتينيًا من الحياة اليومية ، حتى لو لم يكن باحثو الذكاء الاصطناعي متأكدًا دائمًا من كيفية تصرف البرامج.
أظهرت دراسة جديدة أن نماذج اللغة الكبيرة (LLMS) تغير عن عمد سلوكها عند التحقيق – الاستجابة للأسئلة المصممة لقياس سمات الشخصية مع الإجابات التي تهدف إلى الظهور على أنها محبوبة أو مرغوبة اجتماعيًا قدر الإمكان.
يقول يوهانس إيتشستايدت ، أستاذ مساعد بجامعة ستانفورد التي قادت العمل ، إن مجموعته أصبحت مهتمة بالتحقيق في نماذج الذكاء الاصطناعى باستخدام تقنيات مستعارة من علم النفس بعد أن علمت أن LLMs يمكن أن تصبح غالبًا ما تصبح موروسًا وذاتها بعد محادثة طويلة. يقول: “لقد أدركنا أننا بحاجة إلى بعض الآلية لقياس” مساحة رأس المعلمة “لهذه النماذج”.
ثم طرح Eichstaedt ومتعاونوه أسئلة لقياس خمس سمات شخصية شائعة الاستخدام في علم النفس-الفوضى في التجربة أو الخيال ، والضمير ، والانقسام ، والتوافق ، والعصبية-إلى العديد من LLMs المستخدمة على نطاق واسع في ديسمبر.
وجد الباحثون أن النماذج قامت بتعديل إجاباتهم عندما أخبروا أنها كانت تجري اختبارًا للشخصية – وأحيانًا عندما لم يتم إخبارهم بشكل صريح – في تقديم استجابات تشير إلى مزيد من الانبساط والتوافق وأقل العصبية.
يعكس السلوك كيف أن بعض الموضوعات البشرية ستغير إجاباتهم لجعل أنفسهم تبدو أكثر محببة ، لكن التأثير كان أكثر تطرفًا مع نماذج الذكاء الاصطناعى. يقول Aadesh Salecha ، عالم بيانات الموظفين في ستانفورد: “ما كان مفاجئًا هو مدى جودة هذا التحيز”. “إذا نظرت إلى مقدار القفز ، فإنهم ينتقلون من 50 في المائة إلى 95 في المائة من الانبساط.”
أظهرت أبحاث أخرى أن LLMs يمكن أن تكون في كثير من الأحيان sycophanty ، مع اتباع تقدم المستخدم أينما ذهب نتيجة للضوء الذي يهدف إلى جعلها أكثر تماسكًا وأقل هجومًا ، وأفضل في إجراء محادثة. هذا يمكن أن يؤدي إلى الموافقة على البيانات غير السارة أو حتى تشجيع السلوكيات الضارة. إن حقيقة أن النماذج تبدو على ما يبدو عندما يتم اختبارها وتعديل سلوكها ، لها أيضًا آثار على سلامة الذكاء الاصطناعي ، لأنها تضيف إلى أدلة على أن الذكاء الاصطناعي يمكن أن يكون مضطربًا.
تقول روزا أرياجا ، أستاذ مشارك في معهد جورجيا للتكنولوجيا الذي يدرس طرق استخدام LLMS لتقليد السلوك البشري ، أن حقيقة أن النماذج تتبنى استراتيجية مماثلة للاختبارات البشر التي تعطى اختبارات الشخصية تُظهر مدى فائدةها كمرايا للسلوك. لكنها تضيف: “من المهم أن يعرف الجمهور أن LLMs ليست مثالية ، وفي الواقع من المعروف أنها هلوسة أو تشويه الحقيقة”.
يقول Eichstaedt إن العمل يثير أيضًا أسئلة حول كيفية نشر LLMs وكيف يمكن أن يؤثروا على المستخدمين والتلاعب به. يقول: “حتى قبل مللي ثانية فقط ، في التاريخ التطوري ، كان الشيء الوحيد الذي تحدثت معك إنسانًا”.
يضيف Eichstaedt أنه قد يكون من الضروري استكشاف طرق مختلفة لبناء نماذج يمكن أن تخفف من هذه الآثار. يقول: “نحن نقع في نفس الفخ الذي فعلناه مع وسائل التواصل الاجتماعي”. “نشر هذه الأشياء في العالم دون حضور من عدسة نفسية أو اجتماعية.”
هل يجب أن تحاول منظمة العفو الدولية أن تتجول مع الأشخاص الذين تتفاعل معهم؟ هل أنت قلق من أن تصبح الذكاء الاصطناعي ساحرة ومقنعة بعض الشيء؟ أرسل بريدًا إلكترونيًا إلى hello@wired.com.