في هذا الأسبوع، نشر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، وأريانا هافينغتون، مؤسسة ورئيسة شركة Thrive Global الصحية، مقالاً في مجلة Time يروجون فيه لشركة Thrive AI، وهي شركة ناشئة مدعومة من Thrive وصندوق OpenAI Startup Fund. ويشير المقال إلى أن الذكاء الاصطناعي قد يكون له تأثير إيجابي كبير على الصحة العامة من خلال إقناع الناس باتباع سلوكيات أكثر صحة.

يكتب ألتمان وهوفينجتون أن Thrive AI تعمل على “توفير مدرب ذكاء اصطناعي شخصي متكامل بالكامل يقدم دفعات وتوصيات فريدة من نوعها في الوقت الفعلي تسمح لك باتخاذ إجراءات بشأن سلوكياتك اليومية لتحسين صحتك”.

وتضفي رؤيتهم لمسة إيجابية على ما قد يثبت أنه أحد أكثر مجالات الذكاء الاصطناعي قسوة. فنماذج الذكاء الاصطناعي بارعة بالفعل في إقناع الناس، ولا نعرف إلى أي مدى قد تصبح أكثر قوة مع تقدمها وحصولها على المزيد من البيانات الشخصية.

يقود ألكسندر مادري، الأستاذ المتفرغ من معهد ماساتشوستس للتكنولوجيا، فريقًا في OpenAI يسمى Preparedness والذي يعمل على هذه القضية بالذات.

وفي مقابلة أجريت معه في شهر مايو/أيار، قال مادري لمجلة WIRED: “إن الإقناع هو أحد مجالات العمل في مجال الاستعداد. ويتلخص جوهر الأمر في التفكير في مدى إمكانية استخدام هذه النماذج كوسيلة لإقناع الناس”.

يقول مادري إنه انجذب إلى الانضمام إلى OpenAI بسبب الإمكانات المذهلة التي تتمتع بها نماذج اللغة ولأن المخاطر التي تشكلها لم تتم دراستها إلا نادراً. ويقول: “لا يوجد أي علم تقريبًا. كان هذا هو الدافع وراء جهود الاستعداد”.

إن القدرة على الإقناع عنصر أساسي في برامج مثل ChatGPT وأحد المكونات التي تجعل مثل هذه الروبوتات الدردشة مقنعة للغاية. يتم تدريب نماذج اللغة على الكتابة البشرية والحوار الذي يحتوي على عدد لا يحصى من الحيل والتقنيات البلاغية والإقناعية. كما يتم ضبط النماذج عادةً بشكل دقيق لارتكاب الأخطاء تجاه العبارات التي يجدها المستخدمون أكثر إقناعًا.

تشير دراسة بحثية نشرتها شركة Anthropic، وهي شركة منافسة أسسها منفيون من OpenAI، في أبريل/نيسان إلى أن نماذج اللغة أصبحت أفضل في إقناع الناس مع نموها في الحجم والتعقيد. وتضمن هذا البحث إعطاء المتطوعين بيانًا ثم رؤية كيف تغير الحجة التي تم إنشاؤها بواسطة الذكاء الاصطناعي رأيهم فيه.

ويمتد عمل OpenAI إلى تحليل الذكاء الاصطناعي في المحادثة مع المستخدمين – وهو أمر قد يفتح الباب أمام قدر أعظم من الإقناع. ويقول مادري إن العمل يجري على متطوعين موافقين، ويرفض الكشف عن النتائج حتى الآن. لكنه يقول إن القوة الإقناعية لنماذج اللغة عميقة. ويقول: “بصفتنا بشرًا، لدينا هذا” الضعف “الذي يجعل أي شيء يتواصل معنا باللغة الطبيعية (نفكر فيه كما لو كان) إنسانًا”، ملمحًا إلى التشبيه البشري الذي يمكن أن يجعل برامج الدردشة الآلية تبدو أكثر واقعية وإقناعًا.

وتزعم مقالة تايم أن الفوائد الصحية المحتملة للذكاء الاصطناعي المقنع سوف تتطلب ضمانات قانونية قوية لأن النماذج قد تتمكن من الوصول إلى قدر كبير من المعلومات الشخصية. ويكتب ألتمان وهافينغتون: “يحتاج صناع السياسات إلى خلق بيئة تنظيمية تعزز ابتكار الذكاء الاصطناعي مع حماية الخصوصية”.

ولكن هذا ليس كل ما يتعين على صناع السياسات أن يأخذوه في الاعتبار. فقد يكون من الأهمية بمكان أيضاً أن نزن مدى إساءة استخدام الخوارزميات المقنعة على نحو متزايد. فقد تعمل خوارزميات الذكاء الاصطناعي على تعزيز صدى المعلومات المضللة أو توليد عمليات احتيال تصيدية مقنعة بشكل خاص. وقد تُستخدم أيضاً للإعلان عن المنتجات.

وتقول مادري إن السؤال الرئيسي الذي لم تدرسه شركة OpenAI أو غيرها من الشركات بعد هو إلى أي مدى يمكن أن تكون برامج الذكاء الاصطناعي التي تتفاعل مع المستخدمين على مدى فترات طويلة من الزمن أكثر إقناعا أو إكراهاً. وبالفعل تقدم عدد من الشركات برامج دردشة تقوم بدور الشركاء الرومانسيين وشخصيات أخرى. وتزداد شعبية الصديقات من الذكاء الاصطناعي بشكل متزايد ــ بعضها مصمم للصراخ في وجهك ــ ولكن مدى إدمان هذه الروبوتات وإقناعها غير معروف إلى حد كبير.

لقد أدى الإثارة والدعاية التي أحدثها ChatGPT بعد إصداره في نوفمبر 2022 إلى تركيز OpenAI والباحثين الخارجيين والعديد من صناع السياسات على السؤال الأكثر افتراضية حول ما إذا كان الذكاء الاصطناعي يمكن أن يتحول يومًا ما ضد صانعيه.

يقول مادري إن هذا يخاطر بتجاهل المخاطر الأكثر دقة التي تفرضها الخوارزميات ذات اللسان الفضي. ويقول مادري عن عمل صناع السياسات حتى الآن: “أخشى أن يركزوا على الأسئلة الخاطئة. بمعنى ما، يقول الجميع: “أوه نعم، نحن نتعامل مع الأمر لأننا نتحدث عنه”، بينما في الواقع نحن لا نتحدث عن الشيء الصحيح”.

شاركها.