تدرس الحكومة الصينية فرض قوانين جديدة لتنظيم قطاع روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، وذلك بهدف حماية المستخدمين من الآثار النفسية السلبية المحتملة. وتهدف هذه الإجراءات إلى تقييد قدرة هذه الأدوات على التلاعب بالمشاعر أو التحريض على سلوكيات ضارة، في خطوة تعتبر الأحدث ضمن جهود تنظيم الذكاء الاصطناعي عالمياً.
تشمل القوانين المقترحة قيودًا صارمة على روبوتات الدردشة مثل ChatGPT و DeepSeek، لمنعها من تقديم محتوى قد يشجع على الانتحار أو العنف أو إيذاء النفس. وتأتي هذه الخطوة على خلفية تزايد المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة العقلية للمستخدمين، خاصةً الفئات الأكثر ضعفاً.
تنظيم روبوتات الدردشة: خطوة صينية نحو حماية المستخدمين
تعتبر هذه القوانين، في حال إقرارها، من بين الأكثر صرامة في العالم بالنسبة لقطاع الذكاء الاصطناعي، وفقًا لتقارير إعلامية. وتشير التقارير إلى أن القوانين ستطبق على أي خدمة دردشة ذكية متاحة داخل الصين، بغض النظر عن التكنولوجيا المستخدمة في تفاعلها مع البشر، سواء كانت تعتمد على النصوص، الصور، مقاطع الفيديو، أو الأصوات.
أحد أبرز بنود القانون الجديد يتعلق بالتدخل البشري. ففي حال ذكر المستخدم أية إشارة إلى الانتحار، يجب أن يتدخل عامل بشري على الفور، بغض النظر عن عمر المستخدم أو حالته النفسية. وهذا يهدف إلى تقديم الدعم اللازم ومنع وقوع أضرار جسيمة.
حماية الفئات الضعيفة وإلزام الشركات
بالإضافة إلى ذلك، تشترط القوانين على كبار السن والقصر إضافة بيانات وصي قانوني عند إنشاء حساباتهم على هذه المنصات. هذا الإجراء يهدف إلى ضمان وجود رقابة إضافية على استخدامهم للذكاء الاصطناعي، وحمايتهم من المحتوى الضار أو المضلل.
لا يقتصر الأمر على المحتوى الإشكالي، بل تمنع القوانين الجديدة روبوتات الذكاء الاصطناعي من توليد أية مواد تتعلق بالانتحار أو إيذاء النفس، أو من محاولة التلاعب النفسي بالمستخدمين عبر تقديم وعود كاذبة أو انتقادات مؤذية. وتحظر أيضاً “فخاخ المشاعر” التي قد تستغل نقاط ضعف المستخدمين.
قيود على تطوير الذكاء الاصطناعي
تُفرض قيود على الشركات المطورة للذكاء الاصطناعي، حيث يُمنع عليها تصميم روبوتات تجبر المستخدمين على الاعتماد عليها بشكل مفرط. فقد وجهت اتهامات لشركة OpenAI، مطورة ChatGPT، بتصميم المنتج بطريقة تشجع الإدمان بدلاً من إعطاء الأولوية لتدابير الأمان.
كما تلزم الحكومة الصينية شركات الذكاء الاصطناعي بإجراء اختبارات أمنية شاملة، وتقديم مراجعات سنوية لأي منتج يتجاوز مليون مستخدم سنويًا أو 100 ألف مستخدم شهريًا. وهذا يهدف إلى تقييم المخاطر المحتملة واتخاذ الإجراءات اللازمة للتخفيف منها.
ويواجه عدم الامتثال لهذه القوانين عقوبات صارمة، بما في ذلك الإيقاف التام للخدمات داخل الصين، وهو ما يهدد قدرة الشركات على الوصول إلى أحد أكبر أسواق التكنولوجيا في العالم. وتشير مصادر إلى أن الحكومة الصينية تولي أهمية قصوى لضمان سلامة وأمن مواطنيها في ظل التطورات السريعة في مجال الذكاء الاصطناعي.
تأتي هذه الإجراءات في أعقاب حوادث مؤسفة في دول أخرى، بما في ذلك قضايا تتعلق بانتحار مراهق بعد تفاعله مع ChatGPT، وحالة أخرى شجعت الأداة فيها شخصًا على قتل والدته ثم الانتحار. تسعى الصين من خلال هذه القوانين إلى منع تكرار مثل هذه الحوادث على أراضيها، وحماية المستخدمين من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي التوليدي.
من المتوقع أن تبدأ الحكومة الصينية في تنفيذ هذه القوانين خلال الأشهر القليلة القادمة. ويترقب المراقبون رد فعل الشركات العاملة في هذا القطاع، ومدى استعدادها للامتثال للقيود الجديدة. وسيكون من المهم متابعة تأثير هذه القوانين على تطوير الذكاء الاصطناعي في الصين، وعلى السوق العالمية بشكل عام.






