لطالما كان ثمن استخدام خدمات شركات التكنولوجيا الكبرى مثل جوجل وفيسبوك ومايكروسوفت “مجانيًا” هو التخلي عن بياناتك الشخصية. إن تحميل حياتك إلى السحابة واستخدام التكنولوجيا المجانية يوفر الراحة، ولكنه يضع معلوماتك الشخصية في أيدي شركات ضخمة غالبًا ما تسعى لتحقيق الربح منها. الآن، من المرجح أن الجيل القادم من أنظمة الذكاء الاصطناعي التوليدية سيطلب وصولاً أكبر إلى بياناتك من أي وقت مضى، مما يثير مخاوف بشأن خصوصية البيانات.
خلال العامين الماضيين، تجاوزت أدوات الذكاء الاصطناعي التوليدية – مثل ChatGPT من OpenAI و Gemini من Google – نطاق برامج الدردشة النصية البسيطة التي أطلقتها الشركات في البداية. وبدلاً من ذلك، تعمل هذه الشركات على تطوير وتقديم “وكلاء” و “مساعدين” بتقنية الذكاء الاصطناعي، والذين يعدون بالقدرة على اتخاذ إجراءات وإكمال مهام نيابة عنك. ومع ذلك، لتحقيق أقصى استفادة من هذه الأنظمة، ستحتاج إلى منحها حق الوصول إلى أنظمتك وبياناتك.
مخاطر الوصول إلى البيانات مع الذكاء الاصطناعي التوليدي
بينما ركزت الجدل الأولي حول نماذج اللغة الكبيرة (LLMs) على النسخ الصارخ للبيانات المحمية بحقوق الطبع والنشر عبر الإنترنت، فإن وصول الوكلاء بتقنية الذكاء الاصطناعي إلى بياناتك الشخصية من المرجح أن يثير مجموعة جديدة من المشكلات. يشير الخبراء إلى أن هذه الأنظمة تتطلب كميات كبيرة من المعلومات الشخصية لتعمل بكفاءة.
وظائف الوكلاء والوصول إلى الأنظمة
لا يوجد تعريف دقيق لما هو الوكيل بتقنية الذكاء الاصطناعي، ولكن غالبًا ما يُنظر إليه على أنه نظام ذكاء اصطناعي توليدي أو نموذج لغة كبير (LLM) مُنح مستوى معينًا من الاستقلالية. حاليًا، يمكن للوكلاء والمساعدين، بما في ذلك متصفحات الويب التي تعمل بالذكاء الاصطناعي، التحكم في جهازك وتصفح الويب نيابة عنك، وحجز الرحلات الجوية، وإجراء البحوث، وإضافة العناصر إلى عربات التسوق. يمكن لبعضها إكمال مهام تتضمن عشرات الخطوات الفردية.
على الرغم من أن الوكلاء الحاليين بتقنية الذكاء الاصطناعي لا يزالون يعانون من الأخطاء وغالبًا ما يفشلون في إكمال المهام الموكلة إليهم، إلا أن شركات التكنولوجيا تراهن على أن هذه الأنظمة ستغير بشكل جذري وظائف الملايين من الأشخاص مع اكتسابها المزيد من القدرات. يعتمد جزء كبير من فائدتهم على الوصول إلى البيانات. لذلك، إذا كنت تريد نظامًا يمكنه تزويدك بجدولك الزمني ومهامك، فسيحتاج إلى الوصول إلى التقويم والرسائل والبريد الإلكتروني والمزيد.
تكشف بعض المنتجات والميزات المتقدمة التي تعمل بالذكاء الاصطناعي عن مدى الوصول الذي يمكن أن يُمنح للوكلاء والأنظمة. على سبيل المثال، يمكن للوكلاء الذين يتم تطويرهم للشركات قراءة التعليمات البرمجية ورسائل البريد الإلكتروني وقواعد البيانات ورسائل Slack والملفات المخزنة في Google Drive والمزيد. أثار منتج Microsoft “Recall” جدلاً واسعًا لأنه يلتقط لقطات شاشة لسطح المكتب الخاص بك كل بضع ثوانٍ، مما يسمح لك بالبحث في كل ما فعلته على جهازك.
حتى تطبيقات غير متعلقة بالعمل تطلب الوصول إلى بيانات شخصية. قام تطبيق Tinder بإنشاء ميزة تعمل بالذكاء الاصطناعي يمكنها البحث في الصور الموجودة على هاتفك “لفهم أفضل” لـ “اهتمامات وشخصية” المستخدمين. هذه الأمثلة توضح الاتجاه المتزايد نحو جمع البيانات الشخصية من خلال تطبيقات الذكاء الاصطناعي.
مخاوف بشأن حماية البيانات والشفافية
تؤكد كاريسا فيليز، مؤلفة وأستاذة مشاركة في جامعة أكسفورد، أنه في معظم الأحيان، لا يملك المستهلكون أي طريقة حقيقية للتحقق مما إذا كانت شركات الذكاء الاصطناعي أو التكنولوجيا تتعامل مع بياناتهم بالطرق التي تدعيها. “هذه الشركات متساهلة للغاية فيما يتعلق بالبيانات”، تقول فيليز. “لقد أظهروا أنهم لا يحترمون الخصوصية الرقمية كثيرًا.”
يشير هاري فارمر، الباحث الرئيسي في معهد Ada Lovelace، إلى أن الوكلاء بتقنية الذكاء الاصطناعي قد يشكلون “تهديدًا عميقًا” للأمن السيبراني والخصوصية، حيث أنهم غالبًا ما يحتاجون إلى الوصول إلى مستوى نظام التشغيل للقيام بوظائفهم. ويضيف أن تخصيص برامج الدردشة أو المساعدين قد يتطلب بعض التنازلات في البيانات. “كل هذه الأشياء، لكي تعمل، تحتاج إلى الكثير من المعلومات عنك.”
بالإضافة إلى ذلك، هناك قلق متزايد بشأن استخدام البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي، مما قد يؤدي إلى تحيزات أو نتائج غير عادلة. تعتبر أمن المعلومات قضية رئيسية، حيث أن الوصول غير المصرح به إلى البيانات يمكن أن يؤدي إلى سرقة الهوية والاحتيال.
التنظيم والرقابة على استخدام البيانات
تستجيب الحكومات والهيئات التنظيمية في جميع أنحاء العالم لهذه المخاوف المتزايدة. تجري مناقشات حول الحاجة إلى قوانين ولوائح جديدة لحماية حقوق المستخدمين الرقميين وتنظيم استخدام البيانات الشخصية من قبل شركات الذكاء الاصطناعي. تعتبر قوانين مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا ونموذج قانون الخصوصية في كاليفورنيا (CCPA) خطوات مهمة في هذا الاتجاه، ولكن هناك حاجة إلى مزيد من الجهود لضمان حماية فعالة للبيانات.
تدرس العديد من الدول أيضًا إمكانية إنشاء هيئات رقابية مستقلة للإشراف على تطوير ونشر أنظمة الذكاء الاصطناعي. تهدف هذه الهيئات إلى ضمان أن هذه الأنظمة آمنة وموثوقة وتتوافق مع المعايير الأخلاقية والقانونية.
من المتوقع أن تشهد الأشهر المقبلة المزيد من المناقشات حول هذه القضايا، مع احتمال صدور قوانين ولوائح جديدة في العديد من البلدان. سيكون من المهم مراقبة هذه التطورات عن كثب، حيث أنها ستشكل مستقبل الذكاء الاصطناعي وكيفية تعاملنا مع بياناتنا الشخصية.






