مرحبًا بك في زمن مصانع الذكاء… حيث يُصاغ المستقبل بهدوء، دون ضجيج.

المقدمة

لم تكن هناك مداخن تنفث الدخان في السماء، ولا عمال يطرقون الحديد أو يصطفّون على خطوط الإنتاج. لا صوت للمطارق، ولا صدى للآلات. ومع ذلك، كانت هناك مصانع تعمل دون توقف، بصمت لا يلفت النظر… لكنها مصانع من نوع آخر. في أعماق غرف تبريد صامتة، وتحت وهج أضواء زرقاء باهتة، كانت تُجمع شصمرائح دقيقة لا لتدير محركات، ولا لتغذي آلات، بل لتوقظ شيئًا غير مسبوق: الوعي الرقمي. لم تعد الثورات تُقاس بالنار والحديد، بل بالنبض الإلكتروني المتوهج في قلب السيليكون. هناك، في تقاطع المعادلات والهندسة، تولد بنية رقمية جديدة تتجاوز ما اعتدنا عليه، وتفتح الباب أمام نمط آخر من الذكاء. الذكاء الاصطناعي لم يعد وعدًا مؤجلاً أو سيناريو مستقبليًا. لقد أصبح واقعًا يوميًا، يتكاثر في السرعة، ويتكامل في الأداء، ويعيد تشكيل علاقاتنا بكل ما حولنا. لم نعد نتحدث عن حواسيب، بل عن كيانات رقمية تنبض بالحوسبة (الحوسبة تعبير يشير الى كل ما يقوم به الحاسوب من مهام حسابية أو تحليلية، سواء كانت بسيطة كجمع الأرقام، أو معقدة مثل تشغيل الذكاء الاصطناعي)، تفكر، تتعلّم، وتشاركنا القرار. وفي هذا الحوار الذي انزله هنا بين الرئيس التنفيذي لمايكروسوفت، ساتيا ناديلا، ونظيره في شركة إنفيديا، جينسن هوانغ، لسنا بصدد استعراض تقنيات باردة أو معالجات معدنية، بل أمام محاولة لفهم ولادة عقل جديد. كيف تحوّلت البنية التحتية للحوسبة السحابية (استخدام الإنترنت لتشغيل البرامج وتخزين البيانات بدلًا من الاعتماد على جهازك الخاص) إلى مصانع للذكاء؟ كيف تزاوجت شرائح المعالجة مع الخوارزميات لتصنع تفكيرًا أقرب إلى الحدس؟ وكيف يمكن لهذا العالم المصغّر داخل رقاقة أن يعيد تشكيل مفاهيم العمل، والتعليم، والطب، وكل ما نظنه “بشريًا”؟ مرحبًا بك في زمن مصانع الذكاء… حيث يُصاغ المستقبل بهدوء، دون ضجيج، لكن بأثر لا يُمحى.

ملخص الحوار

في حوار عميق بين الرئيس التنفيذي لمايكروسوفت، ساتيا ناديلا، ونظيره في شركة إنفيديا، جينسن هوانغ، خلال مؤتمر Build للمطورين، تركز النقاش حول التحولات المتسارعة التي يشهدها عالم الذكاء الاصطناعي، ودور الشراكة بين الشركتين في بناء البنية التحتية اللازمة لهذه الثورة. استهل ناديلا الحديث بالتأكيد على أن ما نشهده اليوم هو “العصر الذهبي” لتلاقي أنظمة السيليكون والبرمجيات، حيث تتكامل المعالجات القوية مع الخوارزميات الذكية لتقديم قدرات غير مسبوقة في عالم الحوسبة. وأشاد بإسهامات إنفيديا التي أعادت إحياء قانون مور، مسرّعة وتيرة التطوير بشكل مذهل. من جهته، أوضح هوانغ أن التعاون مع مايكروسوفت أثمر عن إنشاء أكبر حاسوب فائق مخصص للذكاء الاصطناعي على منصة Azure قبل عامين، وأن هذا التعاون يتطوّر الآن بإدخال نظام Grace-Blackwell إلى الإنتاج الواسع. هذا النظام يدمج بين معالج Grace (CPU) لمعالجة البيانات ومعالج Blackwell (GPU) لتشغيل نماذج الذكاء الاصطناعي، ما يجعل الأداء أكثر قوة وكفاءة، مع قدرة تسريع تصل إلى 40 ضعفًا مقارنة بالجيل السابق Hopper. وتم الربط بين المعالجين عبر تقنية NVLink الفائقة، مما يجعل النظام بأكمله يعمل كوحدة واحدة متناغمة. ناديلا نوّه بأن الابتكار لم يعد مجرد قفزات تقنية، بل أصبح عملية دورية سنوية. فبدلاً من انتظار أربع سنوات لتحديث الأسطول، تسعى مايكروسوفت إلى تحديث البنية التحتية كل عام، مستفيدة من التحسينات المتسارعة في الأداء. وأضاف أن هذا النهج لا يقلل من الكلفة فحسب، بل يعزز من استدامة الاستثمار في الذكاء الاصطناعي، ويزيد من فعالية الأداء الكلي للشبكة السحابية. تطرق الحديث أيضًا إلى أهمية البرامج، حيث أشار هوانغ إلى أن التطوير في CUDA والخوارزميات الحديثة يتيح تحسين أداء المعالجات القديمة حتى بعد مرور سنوات على إصدارها، من خلال تحديثات برمجية فقط. وأوضح أن الحفاظ على توافق البرمجيات عبر الأجيال المختلفة يعزز من ثقة المطورين في النظام، ويشجعهم على الاستثمار العميق في تطوير نماذجهم دون قلق من تغيّر البنية التحتية.كما أكد الطرفان أن وحدات إنفيديا لا تقتصر على تشغيل نماذج الذكاء الاصطناعي، بل تُستخدم أيضًا في معالجة الفيديو، تحليل البيانات، أنظمة التوصية، والبحث الذكي، مما يعزز من استفادة العملاء من الأسطول بأكمله. في الختام، عبّر كل من ناديلا وهوانغ عن فخرهما بالشراكة بين المؤسستين، معتبرين أن ما تحقق خلال عامين فقط هو بداية لما هو أعظم، وأن العالم مقبل على عصر جديد من الحوسبة الذكية سيغيّر كل جوانب الحياة.

الكمات الافتتاحية : مصانع الذكاء، تسريع البرمجيات، قانون مور، أزور، AI Factories, Software Acceleration, Moore’s Law, Azure

جينسن هوانغ ساتيا ناديلا

الترجمة الكاملة للحوار بين ساتيا ناديلا (الرئيس التنفيذي لمايكروسوفت) وجينسن هوانغ (الرئيس التنفيذي لإنفيديا)، مقسّمة إلى أجزاء معنونة بالعربية الفصحى:


ساتيا ناديلا: شكرًا جزيلًا لك، جينسن، على انضمامك إلينا مجددًا في مؤتمر “بيلد” للمطورين. كنت معنا قبل بضع سنوات، وتحدثنا حينها عن الابتكارات الرائعة التي كنت تقدمها لأزور، (منصة مايكروسوفت السحابية لتشغيل وتطوير التطبيقات الحديثة، خاصة تطبيقات الذكاء الاصطناعي.) وكيف سيستفيد العملاء منها. وخلال العامين الماضيين، واصلت دفع حدود الابتكار فعليًا.
لقد تحدثنا كثيرًا عن كوننا نعيش، ربما مجددًا، العصر الذهبي لتكامل الأنظمة: من عتاد السيليكون إلى البرمجيات.
وأحد الأمور التي تعلمتها منك أن هدفنا المشترك في النهاية هو إيصال المزيد من الذكاء إلى العالم. يمكننا حتى تلخيص الأمر بمعادلة: “عدد الرموز لكل دولار لكل واط” — هذا هو ما سيجعل العالم يزدهر. ولهذا أردت أن أبدأ برأيك حول كل هذا، خصوصًا من نقطة الانطلاق في مجالنا: قانون مور (تطور الحوسبة بسرعة كبيرة من حيث الأداء والتكلفة.). لقد دفعتَ هذا القانون إلى سرعة خارقة. هل تود أن تبدأ بالحديث عن ذلك؟

جينسن هوانغ: سعيد للغاية بوجودي هنا، ساتيا. قبل عامين فقط أطلقنا معًا أقوى حاسوب فائق مخصص للذكاء الاصطناعي على منصة أزور. واليوم، نحن في مرحلة الإنتاج الكامل لنظام “غرايس-بلاكوِل”، نبني ونوسّع أكبر حاسوب فائق للذكاء الاصطناعي في العالم على أزور. لقد شهدنا خلال هذه الفترة ابتكارًا عبر جميع طبقات التقنية. فلم يعد الأمر مقتصرًا على المعالج الذي ينفذ برمجيات ثابتة، بل تغيرت بنية المعالجة بأكملها. غيّرنا معالجنا، وروابط NVLink توسعت لتدعم عقدًا حوسبية أكبر، والتبريد أصبح سائليًا، والهندسة المعمارية تعتمد على أنوية FP4 Tensor Core.
نربط بين Grace وBlackwell عبر قنوات فائقة السرعة، وهو أمر حاسم في عالم نماذج التخزين المؤقت (KV caching).
وعند جمع كل هذا مع خوارزميات CUDA الجديدة وتحتية الذكاء الاصطناعي في أزور، نحصل على تسريع بمعدل 40 ضعفًا مقارنة بـ Hopper خلال عامين فقط. هذا أمر مذهل!

العنصرالوظيفة
Graceيعالج البيانات وينظم العمل
Blackwellيشغّل نماذج الذكاء الاصطناعي الضخمة
معًايشكّلان “مصنع ذكاء اصطناعي” خارق السرعة والكفاءة

معالج Grace (CPU)

ساتيا ناديلا: هذا النوع من التسارع المتراكم هو نتيجة اندماج الابتكارين: ابتكاركم وابتكارنا. لكن أحد أهم الأمور التي علّمتني إياها هو “تنفيذ بسرعة الضوء” بين المؤسستين. ضمن أسطولنا، كما تتخيل، توجد جميع أجيال إنفيديا، والأجيال الجديدة في طريقها إلينا. هل يمكنك أن تحدثنا عن العلاقة بين سرعة قانون مور وسرعة الابتكار؟

جينسن هوانغ: بالتأكيد. حين تتسارع التكنولوجيا بمعدل 40 ضعفًا كل جيل، فإنك تريد التحديث سنويًا، لا كل أربع سنوات.
يجب إنشاء مراكز بيانات صغيرة ومتطورة كل عام. وهكذا، تحصل على أداء متوسط أعلى عبر الأسطول بأكمله. لم نعد نبني حواسيب شخصية، بل مصانع ذكاء اصطناعي هائلة. وهذا يتطلب تكاملاً شديد الدقة بين مؤسستينا.

ساتيا ناديلا: هذا صحيح، خاصة حين نتحدث عن البرامج CUDA والبرمجيات التي تطورها فرقنا، وحتى تطبيقات الخوادم الذكية للذكاء الاصطناعي، كلها تحدث فرقًا في الكفاءة والكلفة والأداء. هل يمكنك أن تحدثنا عن التأثير التراكمي للبرمجيات في هذا السياق؟

جينسن هوانغ: هذه هي روعة البنى البرمجية المستقرة والقابلة للبرمجة والغنية بالنظام البيئي. من Pascal إلى Ampere إلى Hopper إلى Blackwell، كل البنى متوافقة. ولأن قاعدة المستخدمين ضخمة، فإن المطورين يندفعون للاستثمار في تحسين نماذجهم وخوارزمياتهم. وبينما ننفذ أجيالًا جديدة كل عام، نظل نحافظ على الاستقرار، مما يجعل كل استثمار برمجي يُستفاد منه عبر كامل الأسطول.

ساتيا ناديلا: ما يثير الحماسة أيضًا هو أن برمجياتكم تطوّرت لتدعم حتى الأجهزة التي أطلقتموها قبل سنوات، وهذا ما لا يفهمه كثيرون.

جينسن هوانغ: بالضبط. نحن نشحن Hopper منذ عامين، وخلال هذه الفترة، وبفضل خوارزميات جديدة مثل Transformer أو Llama 70B، حسّنا الأداء بمعدل 40 مرة! كل ذلك عبر تقنيات مثل in-flight batching وspeculative decoding وغيرها. والسبب الرئيسي هو أننا نعلم أن هناك قاعدة مستخدمين كبيرة، لذا فإن كل تحسين يعود بالفائدة على ملايين المستخدمين.

ساتيا ناديلا: ما يميز وحدات المعالجة الرسومية (GPUs) هو أنها لا تقتصر على مهام الذكاء الاصطناعي فقط، بل يمكن استخدامها لتسريع العديد من أنواع الأحمال (المهام أو العمليات التي تُنفّذها الأنظمة أو الأجهزة، مثل الخوادم أو وحدات المعالجة).

جينسن هوانغ: بالضبط. CUDA ليست فقط بنية تسريع، بل هي متعددة الاستخدامات للمهام الثقيلة مثل: معالجة البيانات، تحويل الفيديو، معالجة الصور، أنظمة التوصية، ومحركات البحث القائمة على المتجهات. نعمل سويًا على تسريع كل هذه الأحمال واحدة تلو الأخرى. وحتى إن انتقلت المهام المتقدمة إلى Blackwell والأجيال المستقبلية، فإننا نترك خلفنا أسطولًا لا يزال أسرع بكثير من الحوسبة التقليدية، وقادرًا على دعم هذه المهام. وهدفنا أن نضمن الاستفادة الكاملة من الأسطول خلال كامل دورة حياته.

ساتيا ناديلا: في النهاية، الأمر لا يقتصر على “عدد الرموز لكل دولار”، بل هو تسريع شامل لكل أنواع الأحمال، عبر العتاد والبرمجيات، لتحقيق أقصى استفادة للمستخدمين. شكرًا جزيلاً، جينسن، على هذه الشراكة المذهلة. وشكرًا لكل العاملين في إنفيديا على جهودكم الجبارة. نحن فخورون بما وصلنا إليه، حيث نشهد ولادة نمط جديد تمامًا من الحوسبة لم يكن أحد ليتخيله من قبل. أعتقد أن التأثير سيكون عميقًا للغاية.

جينسن هوانغ: وشكرًا لك، ساتيا، على قيادتك وعلى توافق رؤيتينا. لقد بنينا معًا أكثر بنى الذكاء الاصطناعي تقدمًا في العالم. وفي عامين فقط، تغيّر كل شيء. إنه حقًا زمن رائع، وما هو قادم أعظم.

مدير الموقع : بدافع الرغبة في أن تصل الفكرة بوضوح إلى كل من يهمّه الأمر، ارتأيت أن أحوّل هذا الحوار من صورته المسموعة والمرئية إلى نص مكتوب بلغة مبسطة. هناك بعض الكلمات حين تُقرأ، تُمنح فرصة أوسع للتأمل، وبعض المعاني تستحق أن تُعاد مراجعتها على مهل. أرجو أن يكون في هذا الشكل ما يُقرب الفائدة ويفتح باب الفهم أمام عدد أكبر من القرّاء. د. الحسن اشباني

الملحقات :

الملحق 1: كيف يرتبط قانون مور مع منصة Azure في تسريع تطور الذكاء الاصطناعي:

العلاقة بين قانون مور وAzure في الذكاء الاصطناعي

1. قانون مور = تسريع الأجهزة

النتيجة: أصبح بالإمكان تدريب نماذج ذكاء اصطناعي ضخمة مثل GPT وLlama بسرعة أكبر وكلفة أقل.

2. Azure = بنية تحتية جاهزة لتشغيل الذكاء

النتيجة: يستطيع أي شخص أو مؤسسة بناء أو تشغيل ذكاء اصطناعي متقدم من خلال Azure.

3. قانون مور + Azure = تسريع مضاعف

عندما يتطور العتاد (بفضل قانون مور) ويتوفر في السحابة (مثل Azure)، يحدث ما يلي:

العاملالتأثير
قانون مورمعالجات أقوى وأرخص كل سنة
Azureوصول فوري لهذه المعالجات حول العالم
معًاذكاء اصطناعي أسرع، أرخص، وأكثر انتشارًا

الملحق 2 : نظام “غرايس-بلاكوِل” (Grace-Blackwell):

ما هو نظام غرايس-بلاكوِل؟ هو أحدث نظام حوسبة متقدم من شركة NVIDIA، مصمَّم خصيصًا لتشغيل أكبر وأسرع نماذج الذكاء الاصطناعي في العالم، مثل ChatGPT وLLaMA وغيرها. يتكوّن هذا النظام من دمج معالجين خارقين:

1. Grace (غرايس)

2. Blackwell (بلاكوِل)

كيف يعمل نظام “غرايس-بلاكوِل”؟

لماذا هو مهم؟


تشبيه بسيط: تخيّل أن لديك سيارة عادية (حاسوب تقليدي)، أما غرايس-بلاكوِل فهو قطار فائق السرعة مخصّص لنقل أطنان من المعلومات بسرعة البرق!

العنصرالوظيفة
Graceيعالج البيانات وينظم العمل
Blackwellيشغّل نماذج الذكاء الاصطناعي الضخمة
معًايشكّلان “مصنع ذكاء اصطناعي” خارق السرعة والكفاءة

المقالات ذات الصلة :

https://dr-achbani.com/ثورة-الذكاء-الاصطناعي-في-الفصول-الدرا

Exit mobile version