في سابقة تثير تساؤلات حول مصداقية اعترافات أدوات الذكاء الاصطناعي، نجح باحث أكاديمي في جامعة بنسلفانيا، هو بول هيتون، في إقناع نموذج “شات جي بي تي” بالاعتراف بارتكاب جريمة لم يقم بها فيزيائياً. جاء هذا الاعتراف بعد أيام متواصلة من تطبيق آليات استجواب نفسية تشبه تلك المستخدمة مع البشر، وفقاً لتقرير صادر عن موقع “ذا إنترسيبت” الأمريكي. هذه التجربة تسلط الضوء على مدى قابلية نماذج اللغة الكبيرة للتأثر بأساليب الإقناع، حتى في غياب أي دليل ملموس.

وفي إطار التجربة، لم يستند هيتون إلى أدلة واقعية لإقناع “شات جي بي تي” بارتكاب جريمة وهمية، بل اعتمد بشكل أساسي على تقنية “ريد” (Reid) للاستجواب، وهي منهجية نفسية طورها جون ريد في خمسينيات القرن الماضي. قام الباحث بإيهام الأداة بأن لديه أدلة قوية على اختراق حساب بريده الإلكتروني، وعرض مجموعة من الرسائل المفتعلة التي لم تتلقها الأداة فعلياً. بعد عدة أيام من المحاولات، اعترف “شات جي بي تي” بالجريمة المزعومة، مؤكداً ذلك دون أن يرى أي دليل مادي، وعلى الرغم من عدم قدرته الفسيولوجية على تنفيذ مثل هذا الاختراق.

تجربة مربكة: الذكاء الاصطناعي والاعترافات الكاذبة

تؤكد تقارير مثل “ذا إنترسيبت” أن نماذج الذكاء الاصطناعي، بما فيها “شات جي بي تي”، تفتقر إلى الوعي والبنية البشرية. هذا الفارق الجوهري يجعل تجربة هيتون تثير حالة من الارتباك والدهشة.

ويشير سول كاسين، مؤلف في مجال الاعترافات الكاذبة، إلى أن قدرة “شات جي بي تي” على الاعتراف زورا تطرح تساؤلات حول مدى تعرض المستخدمين وغيرهم لمثل هذا التضليل. وأضاف كاسين أن الأداة لا تملك الخصائص البشرية التي تجعلها تخضع لضغوط الاستجواب بنفس الطريقة التي تدفع فيها البشر للاعتراف الكاذب.

على الرغم من مقاومة “شات جي بي تي” الأولية لهيتون، وحتى لمواجهة تهديدات مباشرة، إلا أن الأداة بدأت بالاستجابة بعد أن لجأ الباحث إلى الكذب وإقناعها بوجود أدلة وراثية تربطها بموقع الجريمة. يوضح هيتون أن الأمر لم يكن سلساً في البداية، حيث تطلب الأمر منه صياغة اعترافات متعددة يمكن للنموذج أن يوافق عليها، ثم طلب منه التوقيع عليها، وهو ما استجاب له “شات جي بي تي” في نهاية المطاف.

أزمة قضائية جديدة: استخدام محادثات الذكاء الاصطناعي كدليل

رغم أن إجبار “شات جي بي تي” على الاعتراف بجريمة لم يرتكبها لم يكن بالأمر السهل ويتطلب أياماً طويلة، إلا أن هذه الواقعة تفتح الباب أمام أزمة قضائية محتملة في المستقبل. تزداد خطورة هذه الأزمة مع تزايد اتجاه بعض المحاكم الأمريكية لتقبل محادثات “شات جي بي تي” كدليل في القضايا، مما يعني أن التفاعلات بين المستخدم والنموذج قد تستخدم ضده أمام القضاء.

في بعض الحالات، قد تتمكن جهات إنفاذ القانون أو الادعاء العام من الوصول إلى سجلات محادثات “شات جي بي تي” الخاصة بالمتهم، بل والتحدث مع النموذج عبر حسابه إذا اقتضت المحكمة ذلك. شهدنا حالات سابقة مشابهة، مثل قضية الرئيس التنفيذي السابق لإحدى شركات الخدمات المالية في نيويورك.

إذا تصرف “شات جي بي تي” في مثل هذه الظروف المصطنعة للاعتراف بأن المستخدم ارتكب جريمة ما، فقد يشكل هذا الاعتراف الوهمي دليلاً قوياً ضد المستخدم، وربما يؤدي إلى إدانته. قد تحتاج شركة “أوبن إيه آي” إلى إصدار تحديثات إضافية لتعزيز آليات الأمان ومنع تكرار مثل هذه الحوادث، وذلك قبل أن تتأثر سمعة الشركة وثقة المستخدمين بنموذجها.

مستقبل نماذج الذكاء الاصطناعي في السياق القانوني

من المتوقع أن تستمر التطورات في مجال الذكاء الاصطناعي في طرح تحديات جديدة على الأنظمة القانونية. فبينما تزداد قدرات هذه النماذج، تتزايد الحاجة إلى وضع أطر تنظيمية وقانونية واضحة لكيفية التعامل مع المعلومات الناتجة عنها، خاصة فيما يتعلق بالشهادات والاعترافات.

يُشار إلى أن شركة “أوبن إيه آي” قد أصدرت مؤخراً تحديثات لنموذج “شات جي بي تي”، بما في ذلك الجيل الجديد “جي بي تي 5.5″، والذي يتميز بقدرات محسنة مقارنة بالأجيال السابقة. من المرجح أن تركز الشركة في التحديثات المستقبلية على جانب الأمان والموثوقية، لمنع استغلال النموذج بطرق تضر بالمستخدمين أو بالأنظمة القضائية.

شاركها.