أعلن Openai جديد ميزات السلامة في سن المراهقة لـ ChatGpt يوم الثلاثاء كجزء من الجهد المستمر للرد على المخاوف حول كيفية تفاعل القصر مع chatbots. تقوم الشركة ببناء نظام تنبؤ العمري يحدد ما إذا كان المستخدم أقل من 18 عامًا ويقوم بتوجيههم إلى نظام “مناسب للعمر” يحظر المحتوى الجنسي الرسومي. إذا اكتشف النظام أن المستخدم يفكر في الانتحار أو إيذاء الذات ، فسوف يتصل بوالدي المستخدم. في حالات الخطر الوشيك ، إذا كان والدا المستخدم غير قابل للوصول ، فقد يتصل النظام بالسلطات.

في منشور مدونة حول هذا الإعلان ، كتب الرئيس التنفيذي سام ألمان أن الشركة تحاول موازنة الحرية والخصوصية وسلامة المراهقين.

وكتب التمان: “ندرك أن هذه المبادئ تتعارض ، ولن يتفق الجميع على كيفية حل هذا الصراع”. “هذه قرارات صعبة ، ولكن بعد التحدث مع الخبراء ، هذا ما نعتقد أنه الأفضل ونريد أن نكون شفافين في نوايانا.”

بينما تميل Openai إلى إعطاء الأولوية للخصوصية والحرية للمستخدمين البالغين ، تقول الشركة للشباب إنها تضع السلامة أولاً. بحلول نهاية سبتمبر ، ستطرح الشركة عناصر التحكم الوالدية حتى يتمكن الوالدان من ربط حساب طفلهم بحسابهم ، مما يسمح لهم بإدارة المحادثات وتعطيل الميزات. يمكن للآباء أيضًا تلقي الإخطارات عندما “يكتشف النظام أن سن المراهقة هو في لحظة من الضيق الحاد” ، وفقًا لنشر مدونة الشركة ، ويضع حدودًا في أوقات اليوم يمكن لأطفالهم استخدام chatgpt.

تأتي الحركات في الوقت الذي تستمر فيه عناوين الصحف المقلقة للغاية في موت الأشخاص الذين يموتون عن طريق الانتحار أو ارتكاب العنف ضد أفراد الأسرة بعد الانخراط في محادثات طويلة مع AI chatbots. لقد لاحظ المشرعون ، وكلاهما Meta و Openai يخضعان للتدقيق. في وقت سابق من هذا الشهر ، طلبت لجنة التجارة الفيدرالية Meta و Openai و Google وغيرها من شركات الذكاء الاصطناعى تسليم معلومات حول كيفية تأثير تقنياتهم على الأطفال ، وفقًا لـ Bloomberg.

في الوقت نفسه ، لا يزال Openai بموجب أمر من المحكمة أن يحافظ على دردشات المستهلكين إلى أجل غير مسمى – حقيقة أن الشركة غير راضية للغاية ، وفقًا للمصادر التي تحدثت إليها. تعتبر أخبار اليوم خطوة مهمة نحو حماية القاصرين و Ocvvy PR تحرك لتعزيز فكرة أن المحادثات مع chatbots شخصية لدرجة أن خصوصية المستهلك يجب أن يتم خرقها فقط في أكثر الظروف تطرفًا.

“Avatar Sexbot في Chatgpt”

من المصادر التي تحدثت إليها في Openai ، يزن عبء حماية المستخدمين بشكل كبير على العديد من الباحثين. إنهم يريدون إنشاء تجربة مستخدم ممتعة وجذابة ، ولكن يمكن أن تتحول بسرعة إلى أن تصبح sycophanty بشكل كارثي. من الإيجابي أن شركات مثل Openai تتخذ خطوات لحماية القصر. في الوقت نفسه ، في غياب التنظيم الفيدرالي ، لا يوجد شيء يجبر هذه الشركات على فعل الشيء الصحيح.

في مقابلة أجريت معه مؤخرًا ، دفع تاكر كارلسون التمان للرد بالضبط من هو اتخاذ هذه القرارات التي تؤثر على بقية منا. أشار رئيس Openai إلى فريق سلوك النموذج ، وهو المسؤول عن ضبط النموذج لبعض السمات. وأضاف Altman: “الشخص الذي أعتقد أنه يجب عليك مسؤولية هذه المكالمات هو أنا”. “مثل ، أنا وجه عام. في النهاية ، مثل ، أنا الشخص الذي يمكنه إلغاء أحد تلك القرارات أو مجلسنا”.

شاركها.