شهدت التقارير المرسلة من شركة OpenAI إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) بشأن مواد الاعتداء الجنسي على الأطفال (CSAM) ارتفاعًا كبيرًا، حيث زادت بنسبة 8000% تقريبًا في النصف الأول من عام 2025 مقارنة بالفترة نفسها من عام 2024. يعكس هذا الارتفاع التدابير المتزايدة التي تتخذها الشركة لمكافحة الاستغلال، بالإضافة إلى النمو الهائل في استخدام منتجاتها التي تعتمد على الذكاء الاصطناعي. هذا التطور يثير تساؤلات حول دور الذكاء الاصطناعي في انتشار هذه المواد وكيفية التعامل معها.
أفادت OpenAI بأنها أرسلت 75,027 تقريرًا إلى NCMEC في النصف الأول من عام 2025، تغطي 74,559 قطعة محتوى مشتبه بها. في المقابل، أرسلت الشركة 947 تقريرًا عن 3,252 قطعة محتوى في النصف الأول من عام 2024. المركز الوطني للأطفال المفقودين والمستغلين هو جهة مركزية معتمدة من الكونجرس لتلقي تقارير حول إساءة معاملة الأطفال جنسيًا ومختلف أشكال الاستغلال.
ارتفاع تقارير إساءة استخدام الذكاء الاصطناعي
لا يشير الارتفاع في عدد التقارير بالضرورة إلى زيادة في حالات الاستغلال، بل قد يعكس تحسينات في أنظمة الإشراف الآلي التي تعتمد عليها OpenAI. وقد أعلنت الشركة عن استثمارات في نهاية عام 2024 لزيادة قدرتها على مراجعة واتخاذ الإجراءات اللازمة بشأن التقارير، وذلك لمواكبة النمو المتزايد في عدد المستخدمين.
توسع استخدام ChatGPT
أوضحت جابي رايلا، المتحدثة باسم OpenAI، أن الزيادة في التقارير ترتبط أيضًا بإدخال المزيد من الميزات التي تسمح بتحميل الصور، والانتشار المتزايد لمنتجات الشركة. فقد أعلنت الشركة في أغسطس عن أن تطبيق ChatGPT لديه أربعة أضعاف عدد المستخدمين النشطين أسبوعيًا مقارنة بالعام السابق، مما يزيد من فرص اكتشاف المحتوى الضار.
من المهم ملاحظة أن “المحتوى” في هذا السياق يمكن أن يشمل أنواعًا مختلفة من البيانات. تُبلغ OpenAI عن جميع حالات CSAM، بما في ذلك عمليات التحميل والطلبات، إلى NCMEC. بالإضافة إلى ChatGPT، توفر الشركة أيضًا الوصول إلى نماذجها من خلال واجهات برمجة التطبيقات (APIs).
الذكاء الاصطناعي التوليدي وتحديات الإبلاغ
لا تشمل الإحصائيات الأخيرة أي تقارير متعلقة بتطبيق Sora لتوليد الفيديو، حيث تم إطلاقه في سبتمبر بعد الفترة الزمنية التي يغطيها التحديث. ومع ذلك، فإن الارتفاع في التقارير يتماشى مع نمط مماثل لاحظه NCMEC على نطاق أوسع مع ظهور الذكاء الاصطناعي التوليدي.
أظهر تحليل NCMEC لجميع البيانات الواردة إلى CyberTipline زيادة بنسبة 1325٪ في التقارير التي تتضمن الذكاء الاصطناعي التوليدي بين عامي 2023 و 2024. في حين أن شركات الذكاء الاصطناعي الكبرى الأخرى، مثل Google، تنشر إحصائيات حول التقارير المرسلة إلى NCMEC، إلا أنها لا تحدد النسبة المئوية للتقارير المتعلقة بالذكاء الاصطناعي.
تعتبر هذه الزيادة في التقارير مؤشرًا على المخاطر المحتملة المرتبطة بالذكاء الاصطناعي التوليدي، بما في ذلك استخدامه لإنشاء ونشر مواد استغلالية. كما تسلط الضوء على أهمية التعاون بين شركات التكنولوجيا ووكالات إنفاذ القانون لمكافحة هذه الجرائم.
تتطلب القوانين من الشركات الإبلاغ عن أي محتوى يتعلق باستغلال الأطفال إلى CyberTipline. يقوم المركز بعد ذلك بمراجعة هذه التقارير وإحالتها إلى جهات إنفاذ القانون المختصة للتحقيق. ومع ذلك، فإن تفسير إحصائيات التقارير يمكن أن يكون معقدًا، حيث يمكن أن يشير الارتفاع إلى تحسينات في أنظمة الإشراف أو تغييرات في معايير الإبلاغ، وليس بالضرورة إلى زيادة في النشاط الإجرامي.
بالإضافة إلى ذلك، يمكن أن يكون للمحتوى الواحد تقارير متعددة، ويمكن أن يتضمن التقرير الواحد عدة قطع من المحتوى. لذلك، تقوم بعض الشركات، بما في ذلك OpenAI، بالكشف عن عدد التقارير وعدد قطع المحتوى المتعلقة بها للحصول على صورة أكثر اكتمالاً.
من المتوقع أن يستمر NCMEC في تحليل البيانات المتعلقة بالذكاء الاصطناعي التوليدي ونشر تقارير محدثة حول الاتجاهات الناشئة. كما يجب مراقبة كيفية استجابة شركات الذكاء الاصطناعي لهذه التحديات، وما إذا كانت ستتبنى تدابير إضافية لحماية الأطفال عبر الإنترنت. ستكون البيانات الصادرة عن NCMEC في نهاية عام 2025 حاسمة في تقييم فعالية هذه الجهود وتحديد المجالات التي تتطلب مزيدًا من الاهتمام.






