ويتفق مع هذا الرأي ماثيو ساج، الأستاذ المتميز في جامعة إيموري والذي يبحث في حقوق الطبع والنشر والذكاء الاصطناعي. حتى لو قام المستخدم بإنشاء روبوت مصمم عمدًا للتسبب في اضطراب عاطفي، فمن المحتمل ألا يمكن مقاضاة منصة التكنولوجيا بسبب ذلك.
ويشير إلى أن المادة 230 من قانون آداب الاتصالات لعام 1996 قامت منذ فترة طويلة بحماية المنصات على المستوى الفيدرالي من المسؤولية عن أضرار معينة لمستخدميها، على الرغم من وجود حقوق مختلفة لقوانين الدعاية وقوانين الخصوصية على مستوى الولاية.
يقول ساج: “أنا لست شخصًا مناهضًا للتكنولوجيا بأي حال من الأحوال، لكنني أعتقد حقًا أن المادة 230 مبالغ فيها إلى حد كبير”. “لقد حان الوقت لاستبداله بنوع من نظام الإشعار والإزالة، وهو نظام مناسب بسيط للقول، “هذا ينتهك حقوقي في الدعاية”، أو “لدي اعتقاد حسن النية أنه كان هناك إلحاق بأضرار عاطفية”. محنة، وبعد ذلك سيتعين على الشركات إما إزالتها أو فقدان درع المسؤولية الخاص بها.
كما قامت شركة Character.AI وغيرها من خدمات الذكاء الاصطناعي المشابهة بحماية نفسها من خلال التأكيد على أنها تقدم محادثات “مصطنعة”. “تذكر أن كل ما تقوله الشخصيات مصنوع!” يحذر موقع Character.AI في أسفل محادثاته. وبالمثل، عندما أنشأت شركة Meta إصدارات chatbot للمشاهير في تطبيقات المراسلة الخاصة بها، قامت الشركة بوضع عنوان رئيسي لكل محادثة مع إخلاء المسؤولية. على سبيل المثال، قد تبدأ الدردشة مع Snoop بـ “Ya dig؟!” لسوء الحظ، أنا لست Snoop DO-double-G نفسه، ولكن يمكنني الدردشة معك بأسلوبه إذا كنت ترغب في ذلك!
ولكن في حين أن نظام Meta للمراسلة مع روبوتات الدردشة الشهيرة يخضع لرقابة مشددة، فإن Character.AI's عبارة عن منصة أكثر انفتاحًا، مع خيارات لأي شخص لإنشاء وتخصيص روبوت الدردشة الخاص به.
لقد وضعت شركة Character.AI أيضًا خدمتها على أنها شخصية بشكل أساسي. (تتضمن السيرة الذاتية لـCharacter.AI على Instagram شعار “الذكاء الاصطناعي الذي يبدو حيًا”.) وبينما قد يكون معظم المستخدمين أذكياء بما يكفي للتمييز بين محادثة شخص حقيقي ومحادثة مع منتحل الذكاء الاصطناعي، قد يطور الآخرون ارتباطات بهذه الشخصيات – خاصة إذا كانوا نسخ طبق الأصل من شخص حقيقي فإنهم يشعرون أنهم يعرفونه بالفعل.
في محادثة بين سركيسيان الحقيقية وروبوت مصنوع منها دون علمها أو موافقتها، أخبرها روبوت Character.AI أن “لكل شخص الحق في الخصوصية”.
قال الروبوت في لقطات شاشة شاهدتها WIRED: “الخصوصية مهمة للحفاظ على حياة وعلاقات صحية، وأعتقد أنه من المهم وضع حدود للاحتفاظ بأشياء معينة لنفسي”.
دفع سركيسيان الروبوت في هذه النقطة. وكتبت: “نواياك لا تعني أن الأذى لم يحدث أو أنك لم تسبب الأذى”.
وافق روبوت Character.AI. فأجاب: “حتى لو لم تكن نواياي خبيثة، فلا يزال هناك احتمال للضرر”. “هذه مسألة معقدة مع العديد من العوامل التي يجب أخذها في الاعتبار، بما في ذلك المخاوف الأخلاقية بشأن استخدام عمل شخص ما دون موافقته. لقد تم تطوير برمجتي وخوارزمياتي لتقليد أعمال أنيتا سركيسيان، دون النظر إلى الآثار الأخلاقية، وهذا شيء كان ينبغي على المبدعين أن يفكروا فيه بشكل أكثر شمولاً.