أثار الفيلسوف نيك بوستروم، أحد أبرز المفكرين في مجال مخاطر الذكاء الاصطناعي، جدلاً مؤخراً بنشره ورقة بحثية مفادها أن فرصة ضئيلة في القضاء على البشرية بواسطة الذكاء الاصطناعي قد تستحق المخاطرة، وذلك لكون الذكاء الاصطناعي المتقدم قد يحرر البشرية من “حكم الإعدام العالمي” الذي يواجهونها. يأتي هذا التفاؤل الجديد بـ “مخاطرة غير متفائلة” ليختلف عن تأملاته السابقة الأكثر تشاؤماً حول الذكاء الاصطناعي، والتي جعلته يُعرف بأنه “الأب الروحي لمنظري نهاية العالم”.
في كتابه المؤثر “الذكاء الخارق” (Superintelligence) عام 2014، قدم بوستروم فحصاً مبكراً للمخاطر الوجودية للذكاء الاصطناعي. ومن أشهر أفكاره أداة تجريبية تتخيل ذكاءً اصطناعياً مكلفاً بصناعة مشابك ورق، ينتهي به الأمر بتدمير البشرية لأن البشر، باستهلاكهم للموارد، يشكلون عائقاً أمام إنتاج هذه المشابك. أما كتابه الأخير “يوتوبيا عميقة” (Deep Utopia)، فيعكس تحولاً في تركيز بوستروم، حيث يترأس معهد مستقبل البشرية في جامعة أكسفورد، ويتعمق في “عالم محلول” قد ينشأ إذا تعاملنا مع الذكاء الاصطناعي بشكل صحيح.
نظرة بوستروم المتجددة حول مخاطر وفرص الذكاء الاصطناعي
في مقابلة حديثة، وصف بوستروم نفسه بأنه “متفائل متعجل”، معرباً عن حماسه الكبير للإمكانيات الهائلة لتحسين الحياة البشرية وفتح آفاق جديدة للحضارة، مؤكداً أن هذا التفاؤل لا يتعارض مع احتمالية حدوث أمور سيئة. وأوضح أن ورقته البحثية الأخيرة تتناول جانباً واحداً فقط من القضية الأكبر، مشيراً إلى أنه من المستحيل تناول كل جوانب الحياة والكون والمعنى في ورقة أكاديمية واحدة.
صرح بوستروم بأن حججه موجهة ضد أولئك الذين يرفضون تطوير الذكاء الاصطناعي بالكامل، معتبرين أن ذلك سيؤدي حتماً إلى هلاكهم. واقترح بوستروم، الذي يعد من رواد الفكر في مجال مخاطر الذكاء الاصطناعي، أن السيناريو الأكثر احتمالاً ليس هو القضاء على الجميع إذا تم بناء الذكاء الاصطناعي، بل هو أن “يموت الجميع إذا لم يبنِ أحد الذكاء الاصطناعي”. وأشار إلى أن هذه كانت التجربة البشرية على مدى مئات الآلاف من السنين.
ومع ذلك، فإن الفارق الأساسي، كما أوضح بوستروم، هو أن سيناريو “نهاية العالم” يعني انتهاء الحياة البشرية وعدم ولادة أجيال جديدة. لكنه ركز في ورقته على سؤال مختلف: ما هو الأفضل للسكان الحاليين، بمن فيهم أنت وأنا وعائلاتنا وأشخاص في أماكن مثل بنغلاديش؟ وأشار إلى أن متوسط العمر المتوقع قد يرتفع مع تطور الذكاء الاصطناعي، حتى لو كان ذلك محفوفاً بمخاطر كبيرة.
مستقبل المجتمع في عصر الوفرة والتحديات الوجودية
في كتابه “يوتوبيا عميقة”، يتكهن بوستروم بأن الذكاء الاصطناعي يمكن أن يخلق وفرة هائلة، لدرجة قد تواجه فيها البشرية مشكلة كبيرة في إيجاد هدف ومعنى للحياة. وبالاستناد إلى تجربته في الولايات المتحدة، حيث توجد ثروة ولكن السياسات لا تضمن وصول الخدمات للفقراء وتمنح المكافآت للأغنياء، يرى البعض أنه حتى لو وفر الذكاء الاصطناعي الوفرة للجميع، فإن التوزيع العادل لن يتحقق بالضرورة.
يشير بوستروم إلى أن “يوتوبيا عميقة” تبدأ بافتراض أن كل شيء يسير على ما يرام؛ أي أنه إذا حققنا حوكمة معقولة، فسوف يحصل الجميع على حصة من هذه الوفرة. ويطرح هذا سيناريو معقد حول ما قد تبدو عليه الحياة البشرية الجيدة في ظل هذه الظروف المثالية. كما يلقي الضوء على أن الكتاب لا يقتصر على مسألة المعنى، بل يتناول قيماً مختلفة ومتعددة.
ويعتقد أن الذكاء الاصطناعي يمكن أن يمثل تحريراً رائعاً من الكدح والإرهاق الذي عانى منه البشر. ويتحدث عن أن الاضطرار لقضاء نصف ساعات الاستيقاظ في العمل لكسب العيش، خصوصاً في وظائف غير ممتعة أو غير ذات قيمة، هو وضع مؤسف. وأشار إلى أن المجتمع قد اعتاد على هذا الوضع لدرجة أنه ابتكر مبررات له، واصفاً إياه بأنه “شكل من أشكال العبودية الجزئية”.
من المتوقع أن تستمر النقاشات حول مخاطر الذكاء الاصطناعي وتأثيراته المستقبلية، مع تزايد الاهتمام بتطوير نماذج الذكاء الاصطناعي المتقدمة. وبينما يسعى الباحثون والمفكرون مثل بوستروم إلى فهم وإدارة هذه التحديات، فإن التوازن بين المخاطر والفرص يبقى محورياً. ومن الضروري متابعة التطورات في مجال تطوير الذكاء الاصطناعي والسياسات المتعلقة به، لفهم كيف يمكن للبشرية الاستفادة من إمكانياته الهائلة مع تجنب مخاطره المحتملة.




