في البداية في شهر أبريل ، بدأ تدفق شخصية الحركة في الظهور على مواقع التواصل الاجتماعي بما في ذلك LinkedIn و X. كل رقم يصور الشخص الذي أنشأه بدقة غريبة ، مع إكسسوارات شخصية مثل أكواب القهوة القابلة لإعادة الاستخدام ، وحصير اليوغا ، وسماعات الرأس.
كل هذا ممكن بسبب مولد الصور GPT-4O الجديد من Openai ، والذي يتقدم بسلسلة Superchass ChatGPT على تحرير الصور ، وتقديم النص ، والمزيد. يمكن لمولد صور ChatGpt من Openai أيضًا إنشاء صور بأسلوب شركة الأفلام اليابانية Studio Ghibli – وهو اتجاه سرعان ما ذهب فيروسي أيضًا.
الصور ممتعة وسهلة صنعها – كل ما تحتاجه هو حساب chatgpt مجاني وصورة. ومع ذلك ، لإنشاء صورة حركة أو صورة استوديو GHIBLI-Style ، تحتاج أيضًا إلى تسليم الكثير من البيانات إلى Openai ، والتي يمكن استخدامها لتدريب نماذجها.
البيانات المخفية
غالبًا ما يتم إخفاء البيانات التي تعطيها عند استخدام محرر صور الذكاء الاصطناعي. في كل مرة تقوم فيها بتحميل صورة إلى ChatGpt ، من المحتمل أن تقوم بتسليم “مجموعة كاملة من البيانات الوصفية” ، كما يقول توم فاسدار ، رئيس منطقة الأمن السيبراني في المعهد المفتوح للتكنولوجيا. “يتضمن ذلك بيانات EXIF المرفقة بملف الصورة ، مثل الوقت الذي تم التقاط فيه الصورة وإحداثيات GPS من حيث تم تصويرها.”
يقوم Openai أيضًا بجمع بيانات حول الجهاز الذي تستخدمه للوصول إلى النظام الأساسي. هذا يعني نوع جهازك ونظام التشغيل وإصدار المتصفح ومعرفات فريدة من نوعها ، كما يقول Vazdar. “ولأن منصات مثل ChatGPT تعمل بشكل محادثة ، فهناك أيضًا بيانات سلوكية ، مثل ما كتبته ، ونوع الصور التي طلبتها ، وكيف تفاعلت مع الواجهة وتواتر تلك الإجراءات.”
إنه ليس وجهك فقط. إذا قمت بتحميل صورة عالية الدقة ، فأنت تمنح Openai أي شيء آخر في الصورة أيضًا-الخلفية والأشخاص الآخرين والأشياء في غرفتك وأي شيء يمكن قراءته مثل المستندات أو الشارات ، كما يقول Camden Woollven ، رئيس مجموعة منتجات AI في مجال إدارة المخاطر GRC International Group.
يقول فازدار إن هذا النوع من البيانات المدعومة طواعية المقدمة ، هي “منجم ذهبي لتدريب النماذج التوليدية” ، وخاصة النماذج متعددة الوسائط التي تعتمد على المدخلات البصرية.
ينكر Openai أنها تنظيم اتجاهات الصور الفيروسية كحيلة لجمع بيانات المستخدم ، ومع ذلك فإن الشركة تكتسب بالتأكيد ميزة منها. لا يحتاج Openai إلى كشط الويب من أجل وجهك إذا كنت تقوم بتحميله بسعادة بنفسك ، كما يشير Vazdar. “هذا الاتجاه ، سواء عن طريق التصميم أو فرصة مريحة ، يوفر للشركة كميات هائلة من بيانات الوجه الطازجة عالية الجودة من الفئات العمرية المتنوعة والأعراق والجغرافيا.”
يقول Openai إنه لا يبحث بنشاط عن معلومات شخصية لتدريب النماذج – ولا يستخدم البيانات العامة على الإنترنت لبناء ملفات تعريف حول الأشخاص للإعلان عنها أو بيع بياناتهم. ومع ذلك ، بموجب سياسة الخصوصية الحالية في Openai ، يمكن الاحتفاظ بالصور المقدمة من خلال ChatGPT واستخدامها لتحسين نماذجها.
يقول جيك مور ، مستشار الأمن السيبراني العالمي في Outfit Eset ، الذي أنشأ رقم العمل الخاص به لإظهار مخاطر الخصوصية في الاتجاه على LinkedIn ، إن أي بيانات أو مطالبات أو طلبات تشاركها تساعد في تعليم الخوارزمية – والمعلومات الشخصية تساعد على ضبطها بشكل أكبر.
تشبه غريب
في بعض الأسواق ، يتم حماية صورك حسب اللوائح. في المملكة المتحدة والاتحاد الأوروبي ، توفر لائحة حماية البيانات بما في ذلك الناتج المحلي الإجمالي حماية قوية ، بما في ذلك الحق في الوصول إلى بياناتك أو حذفها. في الوقت نفسه ، يتطلب استخدام البيانات البيومترية موافقة واضحة.
ومع ذلك ، تصبح الصور فوتوغرافية بيانات بيومترية فقط عند معالجتها من خلال وسائل فنية محددة ، مما يسمح بالتعرف الفريد لفرد معين ، كما يقول ميليسا هول ، زميل كبير في مكتب المحاماة MFMAC. وتقول إن معالجة صورة لإنشاء نسخة كاريكاتورية من الموضوع في الصورة الأصلية “من غير المرجح أن تلبي هذا التعريف”.