أصبحت تقنية التزييف العميق، أو “Deepfake”، سلاحًا ذا حدين في العصر الرقمي، حيث تزعزع أركان اليقين وتجعل من الصعب التحقق من صحة ما نراه أو نسمعه. فمن المكالمات الصوتية المشبوهة التي تدعي أنها من أحبائنا، إلى اجتماعات الفيديو التي تضم وجوهًا مألوفة لكنها مزيفة، كشفت هذه التقنيات عن الوجه المظلم للذكاء الاصطناعي، مساهمة في انتشار موجة جديدة من عمليات الاحتيال المتقنة التي تستغل النسخ الرقمية المزيفة للأصوات والوجوه.
تشير الإحصائيات إلى تزايد الخسائر الناجمة عن عمليات الاحتيال المرتبطة بالذكاء الاصطناعي، حيث بلغت الخسائر في الولايات المتحدة وحدها ما يقارب 893 مليون دولار خلال عام 2025، وفقًا لتقرير مركز شكاوى الجرائم الإلكترونية التابع لمكتب التحقيقات الفيدرالي (FBI). وفي الربع الأول من نفس العام، تجاوزت الخسائر الناجمة عن الاحتيال المعتمد على التزييف العميق 200 مليون دولار في أمريكا الشمالية، مما يبرز الانتشار السريع لهذه الظاهرة.
تقنيات التزييف العميق وكيفية عملها
بدأت تقنية التزييف العميق في بدايتها كاستخدام للشبكات العصبية التنافسية، ولكنها سرعان ما تطورت لتصبح صناعة مزدهرة. وبات الانتقال من عصر صناعة المحتوى إلى عصر تزييف الواقع أمرًا ملموسًا. فبمجرد توفر ثوانٍ معدودة من صوت شخص ما، يمكن تدريب نموذج ذكاء اصطناعي لتقليد نبرته وإيقاعه ولهجته بدقة متناهية. وفيما يتعلق بتزييف الفيديوهات، تعتمد التقنية على لقطات عامة، مع القدرة على محاكاة تفاصيل دقيقة مثل حركات العين، وترميش الجفون، وانعكاس الإضاءة على الجلد، مما يجعل المشهد الناتج طبيعيًا بشكل مخيف.
لقد ساهم ظهور أدوات متخصصة في هذا المجال في تسريع وتيرة الاستخدام. ففي مجال استنساخ الصوت، برزت منصات مثل “إيلفن لابس” (ElevenLabs) و”ريسمبل إيه آي” (Resemble AI)، القادرة على محاكاة المشاعر الإنسانية. وعلى صعيد الفيديو، تتيح أدوات مثل “هاي جين” (HeyGen) و”راسك إيه آي” (Rask AI) إنشاء فيديوهات تتحدث بلغات متعددة مع مزامنة دقيقة لحركة الشفاه. إلى جانب ذلك، ظهرت نماذج لغوية كبيرة مصممة خصيصًا للاستخدام الإجرامي، مثل “وورم جي بي تي” (WormGPT) و”كاواي جي بي تي” (KawaiiGPT)، والتي تمكن المحتالين من صياغة رسائل تصيد احتيالي مخصصة للغاية بلغات متعددة وبسرعة فائقة.
يُمكن شراء أدوات التزييف العميق الجاهزة للاستخدام بأسعار زهيدة عبر الويب المظلم. هذا التوفر وسهولة الاستخدام أدى إلى سهولة إنتاج مقاطع فيديو مزيفة لشخصيات رفيعة المستوى، مثل مديري البنوك، أو تسجيلات صوتية مقلدة لأشخاص مقربين يطلبون المساعدة بشكل عاجل.
ويشير تقرير شركة “مكافي” (McAfee) إلى أن الأمريكيين يرون ما معدله 3 حالات تزييف عميق يوميًا. ويعترف واحد من كل عشرة أشخاص بالتعرض لعملية احتيال عبر استنساخ الصوت، بينما تلقى واحد من كل أربعة أمريكيين مكالمة صوتية مزيفة في العام الماضي. علاوة على ذلك، فإن 24% آخرين غير متأكدين من قدرتهم على التمييز بين المكالمات الحقيقية والمزيفة.
حين يسرق الذكاء الاصطناعي صوت الأحباء وتختبر الشركات الاحتيال
تعتمد قوة التزييف العميق في إحداث الضرر على قدرته على اختراق الأصالة المعرفية. فالدماغ البشري مبرمج بطبيعته للوثوق بنبرة الصوت المألوفة وملامح الوجه المعروفة، خاصة في المواقف التي تتطلب استجابة سريعة أو في حالات الطوارئ. إن واقعية الصوت المستنسخ تزيل حواجز الشك، وتوقف الدفاعات العقلانية عن العمل إذا كان الصوت يبدو مطابقًا لصوت شخص مألوف.
وتُعرف إحدى أبرز هذه العمليات بـ “احتيال الطوارئ العائلية” (Family Emergency Scams)، حيث يتظاهر المحتال بأنه قريب يمر بأزمة طارئة، مثل الاعتقال، أو حادث سيارة، أو حاجة طبية ملحة، ويطلب تحويل أموال بشكل عاجل. يستغل المحتال في هذه الحالة المشاعر والعواطف، مستخدمًا تقنيات متطورة لإقناع الضحية، التي غالبًا ما تتصرف تحت ضغط عاطفي وزمني دون التفكير المتأني.
في قضية شهيرة، تلقت سيدة مكالمة من رقم يشبه رقم ابنتها، وسمعت صوتًا يبكي يدعي أنه صوت ابنتها. ادعى الصوت أن ابنتها تسببت في حادث سيارة أدى إلى إصابة امرأة حامل، وأنها الآن قيد الاعتقال وتحتاج إلى كفالة عاجلة. وقد طالب محتال آخر، انتحل صفة محامٍ، بدفع مبلغ 15 ألف دولار ككفالة نقدية. وبعد دفع المبلغ، اكتشفت السيدة أن الصوت كان مستنسخًا بواسطة الذكاء الاصطناعي وأن ابنتها في أمان. وتشمل الحالات الأخرى رسائل صوتية تطلب تحويلات مالية عاجلة عبر تطبيقات الدفع، مع التركيز على خلق ضغط نفسي على الضحية.

يشير استطلاع “مكافي” إلى أن أغلب الناس قد يستجيبون لرسالة صوتية مزيفة من قريب يطلب المال، خاصة في سيناريوهات الحوادث أو السرقة. ويُعد كبار السن الفئة الأكثر عرضة لهذه الأنواع من الاحتيال، حيث تجاوزت خسائرهم من الجرائم الإلكترونية نحو 4.8 مليارات دولار في عام 2024، ومن المتوقع أن ترتفع هذه الأرقام مع انتشار تقنيات الذكاء الاصطناعي. وقد سجل تقرير مكتب التحقيقات الفيدرالي لعام 2025 أكثر من 22 ألف شكوى متعلقة بالذكاء الاصطناعي، بما في ذلك ملايين الدولارات التي سُرقت من خلال عمليات “احتيال الطوارئ العائلية” التي تستخدم الأصوات المزيفة.
لم تقتصر الهجمات على الأفراد فحسب، بل امتدت لتهديد عصب الاقتصاد العالمي. وتشمل هذه الهجمات الواقعة الشهيرة التي هزت الأوساط المالية في هونغ كونغ، والتي استهدفت شركة الهندسة البريطانية العالمية “أروب” (Arup). بدأت القصة برسالة بريد إلكتروني من المدير المالي المقيم في لندن يطلب تحويلاً ماليًا سريًا. وعلى الرغم من شكوك الموظف الأولية حول كونها عملية تصيد تقليدية، إلا أن المحتالين كانوا قد أعدوا كمينًا بصريًا متطورًا. تمت دعوة الموظف إلى اجتماع فيديو، ليجد أمامه المدير المالي وعددًا من الزملاء الذين يعرفهم جيدًا. ما لم يكن الموظف على علم به هو أن جميع الحاضرين في الاجتماع، باستثنائه، كانوا نسخًا رقمية مولدة عبر التزييف العميق، بناءً على فيديوهات سابقة لاجتماعات الشركة.
تحت ضغط الأوامر المباشرة من المدير المالي الظاهر في الفيديو، نفذ الموظف عمليات تحويل إلى حسابات بنكية مختلفة بقيمة إجمالية بلغت حوالي 25.6 مليون دولار. ولم تُكتشف عملية الاحتيال إلا بعد مدة، عندما اتصل الموظف بالمكتب الرئيسي للاستفسار. كشفت هذه الحادثة عن حقيقة أن الفيديو لم يعد دليلاً قاطعًا على الوجود، واعتُبرت مثالاً بارزًا على كيفية دمج التزييف العميق في عمليات “اختراق البريد الإلكتروني للأعمال” (BEC)، مما جعل الاحتيال تجربة بصرية وصوتية متكاملة.
ذلك، سجلت حالات مشابهة في شركات أخرى، مثل خسارة 220 ألف يورو في شركة طاقة بريطانية، أو قرابة 500 ألف دولار في شركة سنغافورية. ويستهدف المحتالون الشركات من خلال عمليات احتيال مدعومة بالذكاء الاصطناعي، حيث ينتحلون شخصيات المدراء التنفيذيين لطلب تغيير بيانات الدفع أو إجراء تحويلات سرية. ويشير تقرير مكتب التحقيقات الفيدرالي إلى أن عمليات اختراق البريد الإلكتروني للأعمال وحدها تسببت في خسائر تصل إلى 3 مليارات دولار في عام 2025، مع تزايد استخدام الأصوات والفيديوهات المزيفة. وتجاوزت الخسائر العالمية لعمليات الاحتيال المعتمدة على التزييف العميق مئات الملايين، ومن المتوقع أن تصل إلى 40 مليار دولار بحلول عام 2027، وفقًا لشركة “ديلويت” (Deloitte).
سرقة النسخة الرقمية والدفاع عن الأمان الرقمي
مع كل صورة، فيديو، أو تسجيل صوتي تنشره على منصات التواصل الاجتماعي، فإنك تترك بصمة رقمية تشكل مواد خام لتدريب الذكاء الاصطناعي على إنشاء نسخة رقمية منك، قادرة على تقليد صوتك، حركاتك، وتعبيرات وجهك. تبدأ عملية سرقة هويتك غالبًا بجمع البيانات من حساباتك العامة، ومن ثم تزويد نماذج الذكاء الاصطناعي بهذه البيانات لتدريبها على نبرة صوتك، وإيماءات وجهك، وطريقة كلامك، مما يسمح بإنتاج محتوى جديد – صوتي أو مرئي – يبدو حقيقيًا بشكل مقنع.
يستخدم المحتالون هذه النسخ الرقمية في عمليات الابتزاز، أو لطلب قروض باسمك، أو حتى للوصول إلى حساباتك البنكية إذا كانت أنظمة التحقق الصوتي ضعيفة. هذا يعني أن نسختك الرقمية لم تعد ملكك وحدك، بل قد تكون متاحة للبيع والاستغلال في أي وقت. وفي بعض الحالات، تُستخدم النسخ الرقمية في مكالمات فيديو مزيفة لإقناع الزملاء أو الشركاء بتنفيذ معاملات مشبوهة.
لمواجهة تقنيات التزييف العميق، تحتاج العائلات إلى تبني استراتيجيات دفاعية. يُنصح بتحديد عبارة سرية لا تُذكر في الأماكن العامة، وطلبها عند ورود أي مكالمة طارئة تتعلق بطلب مالي. يجب عدم الثقة بالصوت أو الصورة وحدهما، والتحقق دائمًا عبر قناة مستقلة قبل إجراء أي تحويل مالي. من الضروري أيضًا تقليل مشاركة البيانات الصوتية والبصرية، وجعل حسابات وسائل التواصل الاجتماعي خاصة، وتجنب نشر الفيديوهات الطويلة أو الرسائل الصوتية الواضحة. استخدام فلاتر الخصوصية وأدوات إزالة البيانات من مواقع الوسطاء يعتبر خطوة إضافية ضرورية.
بالنسبة للشركات، فإن التحقق من أي طلب مالي غير متوقع عبر قناة مستقلة تمامًا أمر حيوي، مع افتراض أن أي طلب هو تهديد محتمل حتى لو كان صادرًا من داخل الشبكة. يجب تدريب الموظفين بانتظام من خلال محاكاة لمكالمات التزييف العميق، لتعويدهم على اكتشاف الاختلافات الدقيقة في النبرة أو الحركات غير الطبيعية. كما ينبغي الحد من المحتوى العام للمديرين التنفيذيين على الإنترنت، ومراقبة الحسابات بحثًا عن أي تسريبات معلوماتية.

يجب الاعتماد على تقنيات القياسات الحيوية الصوتية، وتقنيات كشف الحيوية، وأدوات كشف التزييف العميق في مكالمات الفيديو، بالإضافة إلى المصادقة متعددة العوامل، مع تجنب الاعتماد على الصوت أو الفيديو بمفردهما للمعاملات الحساسة. وعلى المستوى العام، ينبغي على الشركات التقنية تطوير أدوات كشف جماعية للمحتوى المولد بالذكاء الاصطناعي. في المقابل، تحتاج الحكومات إلى سن قوانين تجرم التزييف العميق وتعتبره شكلاً من أشكال انتحال الشخصية. ويلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الالتزام بالشفافية والوسم الإلزامي للمحتوى المزيف، بينما تقدم الولايات المتحدة مشاريع قوانين لمكافحة الاحتيال والمحتوى غير التوافقي.
ختامًا، فإن تقنيات التزييف العميق تهز أسس الثقة في التواصل الرقمي، مما يجعل التمييز بين الحقيقي والمزيف أمرًا بالغ الصعوبة. يفتح هذا الواقع الباب أمام خسائر مالية وعاطفية تطال الأفراد والشركات على حد سواء. ولكن، عبر التوعية المستمرة، والتحقق الدائم، والاستثمار في التقنيات الدفاعية والسلوكيات الوقائية، يمكن تحويل هذه التقنية إلى درع يحمينا. ومع التطور السريع لأدوات الكشف عن التزييف العميق باستخدام الذكاء الاصطناعي نفسه، يبدو مستقبل المواجهة بين هذه التقنيات والمدافعين عنها مفتوحًا للتطورات السريعة.






