عندما التاريخ من الذكاء الاصطناعي، قد ينتهي الأمر بستيفن أدلر إلى أن يصبح بول ريفير – أو على الأقل واحدًا منهم – عندما يتعلق الأمر بالسلامة.
في الشهر الماضي، كتب أدلر، الذي قضى أربع سنوات في أدوار السلامة المختلفة في OpenAI، مقالًا لصحيفة نيويورك تايمز بعنوان مثير للقلق إلى حد ما: “لقد قمت بقيادة سلامة المنتج في OpenAI. لا تثق في ادعاءاتها حول “الأدب الشبقي”. وفي هذا المقال، أوضح المشاكل التي واجهتها OpenAI عندما يتعلق الأمر بالسماح للمستخدمين بإجراء محادثات مثيرة مع برامج الدردشة مع حمايتهم أيضًا من أي تأثيرات يمكن أن تحدثها تلك التفاعلات على صحتهم العقلية. وكتب: “لم يكن أحد يريد أن يكون شرطي الأخلاق، لكننا نفتقر إلى طرق لقياس وإدارة الاستخدام المثير بعناية”. “لقد قررنا أن الأعمال المثيرة التي تعتمد على الذكاء الاصطناعي يجب أن تنتظر.”
كتب أدلر مقالته الافتتاحية لأن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أعلن مؤخرًا أن الشركة ستسمح قريبًا بـ “الإثارة الجنسية للبالغين الذين تم التحقق منهم”. ردًا على ذلك، كتب أدلر أن لديه “أسئلة كبيرة” حول ما إذا كانت شركة OpenAI قد فعلت ما يكفي، على حد تعبير ألتمان، “لتخفيف” مخاوف الصحة العقلية حول كيفية تفاعل المستخدمين مع روبوتات الدردشة الخاصة بالشركة.
بعد قراءة مقال أدلر، أردت التحدث معه. لقد قبل بكل لطف عرضًا للحضور إلى مكاتب WIRED في سان فرانسيسكو، وفي هذه الحلقة من المقابلة الكبرىيتحدث عما تعلمه خلال السنوات الأربع التي قضاها في OpenAI، ومستقبل سلامة الذكاء الاصطناعي، والتحدي الذي وضعه للشركات التي تقدم روبوتات الدردشة للعالم.
تم تحرير هذه المقابلة من أجل الطول والوضوح.
كاتي دروموند: قبل أن نبدأ، أريد توضيح شيئين. أولاً، أنت، لسوء الحظ، لست نفس ستيفن أدلر الذي عزف على الطبول في Guns N' Roses، أليس كذلك؟
ستيفن أدلر: صحيح تماما.
حسنًا، هذا ليس أنت. وثانيًا، لقد كان لديك مسيرة مهنية طويلة جدًا في مجال التكنولوجيا، وبشكل أكثر تحديدًا في مجال الذكاء الاصطناعي. لذا، قبل أن نخوض في كل الأمور، أخبرنا قليلاً عن حياتك المهنية وخلفيتك وما عملت عليه.
لقد عملت في جميع أنحاء صناعة الذكاء الاصطناعي، وركزت بشكل خاص على زوايا السلامة. عملت مؤخرًا لمدة أربع سنوات في OpenAI. لقد عملت بشكل أساسي على كل أبعاد قضايا السلامة التي يمكنك تخيلها: كيف نجعل المنتجات أفضل للعملاء ونستبعد المخاطر التي تحدث بالفعل؟ وبالنظر إلى أبعد قليلاً في المستقبل، كيف سنعرف ما إذا كانت أنظمة الذكاء الاصطناعي أصبحت خطيرة للغاية حقًا؟





