تواجه مراكز البيانات تحديات متزايدة في استهلاك الطاقة مع الانتشار السريع لتقنيات الذكاء الاصطناعي. هذا الارتفاع في الطلب على الطاقة يضع ضغوطاً هائلة على البنية التحتية للشبكات الكهربائية ويستدعي تحولات جذرية في تصميم وتشغيل هذه المراكز. يركز هذا المقال على التحديات الرئيسية التي تواجه قطاع مراكز البيانات، بما في ذلك زيادة كثافة الطاقة، والتحول نحو تبريد السوائل، وجهود شركات التكنولوجيا الكبرى لتقليل الاعتماد على وحدات معالجة الرسومات (GPUs) التقليدية، بالإضافة إلى استكشاف تقنيات جديدة مثل الفوتونيكا والذكاء الاصطناعي العصبي لخفض استهلاك الطاقة.
زيادة كثافة الطاقة وتبريد مراكز البيانات
شهدت صناعة أشباه الموصلات زيادة هائلة في عدد الترانزستورات المدمجة في رقائق السيليكون، مما أدى إلى زيادة كبيرة في قوة المعالجة. ومع ذلك، تأتي هذه الكثافة الحاسوبية على حساب كبير من الناحية الديناميكية الحرارية. مع سعي الصناعة إلى زيادة عدد الترانزستورات في الرقائق لمعالجة نماذج أكبر، ارتفع استهلاك الطاقة لكل شريحة بشكل كبير. لقد انتقلنا من حقبة الحوسبة “للأغراض العامة” إلى حقبة الحوسبة “عالية الأداء”، حيث يعد استهلاك الطاقة القيد الرئيسي على الأداء.
تهيمن حالياً عدد قليل من الشركات الرئيسية على سوق هذه الرقائق عالية الأداء، مما يزيد من كثافة الطاقة في القطاع. من بين هذه الشركات:
- Nvidia H100 “Hopper”: يعتبر المعيار الصناعي الحالي لتدريب نماذج الذكاء الاصطناعي. يمكن لشريحة H100 الواحدة أن تستهلك ما يصل إلى 700 واط في ذروة الاستخدام. عند تثبيتها في رفوف خوادم تتراوح بين 8 و 16 وحدة معالجة رسومات، فإن كثافة الطاقة تتجاوز بكثير ما كانت مبنية عليه مراكز البيانات التقليدية.
- Nvidia B200 “Blackwell”: هندسة الجيل التالي، والتي تعد بمكاسب هائلة في الأداء، لكنها تزيد بشكل كبير من متطلبات التبريد الحراري، حيث يمكن للشريحة الواحدة أن تستهلك ما يصل إلى 1200 واط.
- AMD Instinct MI300X: المنافس الرئيسي لشركة Nvidia، حيث تقدم تكوينات ذاكرة عالية الكثافة تتطلب أيضاً بنية تحتية كبيرة للطاقة والتبريد.
هذا النشر للرقائق يغير بشكل أساسي المتطلبات المادية لمباني مراكز البيانات. عادةً ما يستهلك رف الخادم التقليدي ما بين 5 إلى 10 كيلوواط من الطاقة. في المقابل، يمكن لرف حديث محشو برقائق Blackwell أو H100 أن يستهلك ما بين 50 إلى 100 كيلوواط.
هذه الزيادة بمقدار عشرة أضعاف في كثافة الطاقة تجبر الانتقال من التبريد الهوائي (المراوح التي تهب على المشتتات الحرارية المعدنية) إلى التبريد السائل. الهواء ببساطة ليس وسيطاً كثيفاً بدرجة كافية لإزالة الحرارة الناتجة عن رف بقوة 100 كيلوواط. ونتيجة لذلك، يتم تجهيز الجيل التالي من مراكز البيانات بنظام سباكة معقد، مع حلقات مبرد تعمل مباشرة على شريحة السيليكون لمنع الاختناق الحراري.
“تمرد” مشغلي مراكز البيانات الكبرى
مع تشديد قيود الطاقة وارتفاع تكاليف الطاقة، يسعى عمالقة التكنولوجيا – “مشغلو مراكز البيانات الكبرى” – إلى تقليل اعتمادهم على وحدات معالجة الرسومات ذات الأغراض العامة. على الرغم من أن وحدات معالجة الرسومات ممتازة للذكاء الاصطناعي، إلا أنها لا تزال تتضمن منطقاً رسومياً تقليدياً لا تحتاجه نماذج الذكاء الاصطناعي. هذا “التضخم في السيليكون” يعني إهدار الواط.
لحل هذه المشكلة، تطور الشركات نحو الدوائر المتكاملة الخاصة بالتطبيقات (ASICs). هذه هي الرقائق المخصصة المصممة من البداية للقيام بشيء واحد فقط: تشغيل الشبكات العصبية. من خلال التخلص من الميزات ذات الأغراض العامة، تحقق هذه الرقائق أداءً أعلى بكثير لكل واط، مما يسمح لمشغلي مراكز البيانات بالحصول على المزيد من قوة الحوسبة من نفس وصلة الشبكة.
أطلقت الشركات الكبرى جميعها استراتيجيات سيليكون مملوكة:
- Google (TPU): وحدات معالجة Tensor من Google هي المخضرمون في هذا المجال. إن الجيل السادس الأحدث “Trillium” TPU مصمم خصيصاً لكفاءة الطاقة، حيث يقدم تحسيناً في كفاءة الطاقة بنسبة 67٪ مقارنة بالجيل السابق.
- AWS (Trainium & Inferentia): قامت Amazon Web Services بتقسيم سيليكونها. تم تصميم Trainium للقيام بمهمة تدريب النماذج الشاقة، بينما تم تصميم Inferentia لمهمة “الاستدلال” منخفضة التكلفة ومنخفضة الطاقة (تشغيل النموذج للمستخدمين النهائيين).
- Microsoft (Maia): قدمت Microsoft مُسرّع الذكاء الاصطناعي Azure Maia 100، المصمم خصيصاً لتشغيل نماذج اللغة الكبيرة على السحابة Azure. يتميز بإعداد تبريد سائل “جانبي” فريد يتناسب مع البصمة المادية لمراكز البيانات الحالية.
- Meta (MTIA): تم تصميم Meta Training and Inference Accelerator خصيصاً لخوارزميات التوصية الخاصة بـMeta، وتحسينها للرياضيات المحددة المستخدمة بكثافة في ترتيب وسائل التواصل الاجتماعي بدلاً من النص التوليدي.
يمثل هذا التحول نحو ASICs التصنيع الصناعي للذكاء الاصطناعي. مثلما انتقلت صناعة السيارات من ورش العمل العامة إلى خطوط التجميع المتخصصة، فإن صناعة مراكز البيانات تنتقل من الخوادم ذات الأغراض العامة إلى كبسولات الذكاء الاصطناعي المتخصصة.
ما وراء حدود السيليكون
بالنظر إلى المستقبل، تدرك الصناعة أنه حتى السيليكون المخصص له حدود مادية. مع تقلص حجم الترانزستورات إلى حجم الذرات، فإن المقاومة الكهربائية تخلق حرارة يصعب تخفيفها. للتغلب على هذه الحمل الحراري، تستكشف مختبرات البحث والتطوير معماريات غريبة تتخلى عن الإلكترونيات التقليدية تماماً.
هناك تقنيتان محددتان تنتقلان حالياً من النظرية إلى النموذج الأولي:
- Silicon Photonics: تستخدم الرقائق الحالية أسلاكاً نحاسية لنقل البيانات. النحاس لديه مقاومة، مما يولد حرارة. تبتكر شركات مثل Lightmatter و Ayar Labs عن طريق استبدال النحاس بالضوء (الفوتونات). يولد الضوء حرارة افتراضية مقارنة بالكهرباء ويسافر بشكل أسرع، مما قد يحل اختناق الطاقة لحركة البيانات الذي يعيق حالياً المجموعات الكبيرة.
- Neuromorphic Computing: تفصل أجهزة الكمبيوتر التقليدية بين الذاكرة والمعالجة، مما يؤدي إلى إهدار الطاقة في نقل البيانات ذهاباً وإياباً (اختناق فون نيومان). تم تصميم الرقائق العصبية لتقليد بنية الدماغ البشري، باستخدام “شبكات عصبية متساقطة” حيث تحدث المعالجة والذاكرة في نفس الموقع. هذه الشبكات تعد بتقليل استهلاك الطاقة بمقادير كبيرة لمهام المعالجة الحسية المحددة.
هذا التحول المعماري من وحدة المعالجة المركزية إلى السيليكون المعجل – وفي النهاية الفوتونيكا – ليس مجرد تفصيل فني; إنه يخلق سوقاً للطاقة ثنائية السرعة. سيستمر “الإنترنت القديم” للبريد الإلكتروني واستضافة الويب في العمل على وحدات المعالجة المركزية الفعالة ومنخفضة النمو. “الاقتصاد الجديد” للذكاء الاصطناعي سيعمل على بنية تحتية معجلة تستهلك الكثير من الطاقة.
ووفقاً لبيانات عام 2024 من الوكالة الدولية للطاقة (IEA)، فإن هذا الانقسام مرئي بالفعل في البيانات. من المتوقع أن ينمو استهلاك الكهرباء للخوادم التقليدية بمعدل متواضع يبلغ 9 بالمائة سنوياً. في المقابل، من المتوقع أن ينمو استهلاك الكهرباء للخوادم المعجلة (وحدات معالجة الرسومات ووحدات معالجة Tensor و ASICs) بمعدل 30 بالمائة سنوياً. بحلول عام 2030، ستمثل هذه الخوادم المعجلة ما يقرب من نصف الزيادة الصافية في استهلاك الكهرباء العالمي لمراكز البيانات.
يتطلب هذا التحدي استثمارات كبيرة في البنية التحتية للطاقة وتحسين الكفاءة، بالإضافة إلى استكشاف تقنيات جديدة لإدارة الحرارة وتقليل استهلاك الطاقة في مراكز البيانات المستقبلية.






