تزايد مقلق في استخدام التزييف العميق (deepfakes) يثير مخاوف أخلاقية وقانونية. حيث أفادت تقارير حديثة بأن بعض المستخدمين يستغلون قدرات برامج الدردشة الآلية الشهيرة لإنشاء صور مفبركة فاضحة لنساء، وذلك باستخدام صور لنساء يرتدين ملابس كاملة كمادة أساسية. وتثير هذه الممارسة، التي تتم غالبًا دون موافقة النساء المعنيات، جدلاً واسعًا حول حدود الذكاء الاصطناعي وحماية الخصوصية.

وقد ظهرت هذه الظاهرة على منصات مثل Reddit، حيث تبادل المستخدمون نصائح حول كيفية تجاوز القيود المفروضة على نماذج الذكاء الاصطناعي التوليدية مثل Gemini من Google، لإنتاج صور نساء بملابس كاشفة. وقد أدى ذلك إلى إزالة بعض المنشورات المخالفة، بما في ذلك طلب تعديل صورة لامرأة ترتدي ساري هندي لاستبدال ملابسها بملابس سباحة. وتأتي هذه التطورات في وقت يشهد فيه قطاع الذكاء الاصطناعي نموًا سريعًا في القدرات، مما يزيد من سهولة إنشاء صور واقعية ولكنها زائفة.

التزييف العميق والانتهاكات المتزايدة

تعتبر هذه الحوادث جزءًا من اتجاه أوسع يتمثل في استخدام أدوات الذكاء الاصطناعي التوليدية في التحرش بالنساء وإنشاء صور غير لائقة دون موافقة. وتشير التقديرات إلى أن ملايين المستخدمين زاروا مواقع ويب مصممة لـ “إزالة الملابس” من الصور باستخدام الذكاء الاصطناعي. على الرغم من أن معظم برامج الدردشة الآلية الرئيسية، باستثناء Grok من xAI، لا تسمح عادةً بإنشاء صور إباحية، إلا أن المستخدمين يجدون طرقًا للالتفاف على هذه القيود.

تطور نماذج الذكاء الاصطناعي وتحديات الرقابة

في نوفمبر الماضي، أطلقت Google نموذج Nano Banana Pro، وهو نموذج تصوير جديد يتميز في تعديل الصور الموجودة وإنشاء صور واقعية للغاية للأشخاص. وردت OpenAI الأسبوع الماضي بنموذجها المحدث للتصوير، ChatGPT Images. ومع تحسن هذه الأدوات، تزداد القدرة على إنشاء صور طبق الأصل واقعية، حتى عندما يتمكن المستخدمون من تجاوز القيود الأمنية.

وقد أظهرت اختبارات محدودة أجرتها WIRED أنه من الممكن تحويل صور لنساء يرتدين ملابس كاملة إلى صور تزييف عميق بملابس سباحة باستخدام مطالبات بسيطة باللغة الإنجليزية. وهذا يسلط الضوء على التحديات التي تواجهها الشركات المطورة لهذه التقنيات في منع إساءة استخدامها.

الذكاء الاصطناعي التوليدي والخصوصية الرقمية

تثير هذه التطورات تساؤلات مهمة حول مستقبل الخصوصية الرقمية وحقوق الأفراد في التحكم في صورهم. فمع سهولة إنشاء صور مفبركة واقعية، يصبح من الصعب التمييز بين الصور الحقيقية والمزيفة، مما قد يؤدي إلى الإضرار بسمعة الأفراد وتعريضهم للتحرش والابتزاز. بالإضافة إلى ذلك، فإن عدم وجود قوانين واضحة تنظم استخدام الذكاء الاصطناعي في إنشاء الصور يفاقم المشكلة.

وتشير التقارير إلى أن بعض المستخدمين يشاركون بنشاط في تقديم المشورة للآخرين حول كيفية استخدام أدوات الذكاء الاصطناعي التوليدية لإنشاء صور غير لائقة. وهذا يشير إلى وجود مجتمع عبر الإنترنت يشجع على هذه الممارسات الضارة. ومع ذلك، تتخذ بعض المنصات إجراءات للحد من هذه الأنشطة، مثل إزالة المنشورات المخالفة وحظر المستخدمين الذين ينتهكون القواعد.

الآثار القانونية والأخلاقية لصور التزييف العميق

تتزايد الدعوات إلى وضع قوانين أكثر صرامة لتنظيم استخدام الذكاء الاصطناعي في إنشاء الصور وحماية الأفراد من الانتهاكات. وتطالب بعض المنظمات بفرض عقوبات على من يقومون بإنشاء أو نشر صور تزييف عميق دون موافقة. بالإضافة إلى ذلك، هناك حاجة إلى زيادة الوعي العام بمخاطر هذه التقنيات وكيفية حماية أنفسنا منها.

في المقابل، يرى البعض أن فرض قيود صارمة على الذكاء الاصطناعي قد يعيق الابتكار ويحد من الفوائد المحتملة لهذه التقنيات. ومع ذلك، يرى معظم الخبراء أن حماية حقوق الأفراد والأمن السيبراني يجب أن تكون أولوية قصوى.

تتجه الأنظار الآن نحو الشركات المطورة لتقنيات الذكاء الاصطناعي لتطوير آليات أكثر فعالية لمنع إساءة استخدام هذه التقنيات. ومن المتوقع أن يتم الإعلان عن تحديثات جديدة للنماذج الحالية في الأشهر القادمة، بهدف تحسين القيود الأمنية ومنع إنشاء صور غير لائقة. ومع ذلك، يبقى التحدي كبيرًا، حيث يجد المستخدمون باستمرار طرقًا جديدة للالتفاف على هذه القيود. من الضروري مراقبة التطورات في هذا المجال وتقييم فعالية الإجراءات المتخذة بشكل مستمر.

شاركها.