المقدمة
لم تكن هناك مداخن تنفث الدخان في السماء، ولا عمال يطرقون الحديد أو يصطفّون على خطوط الإنتاج. لا صوت للمطارق، ولا صدى للآلات. ومع ذلك، كانت هناك مصانع تعمل دون توقف، بصمت لا يلفت النظر… لكنها مصانع من نوع آخر. في أعماق غرف تبريد صامتة، وتحت وهج أضواء زرقاء باهتة، كانت تُجمع شصمرائح دقيقة لا لتدير محركات، ولا لتغذي آلات، بل لتوقظ شيئًا غير مسبوق: الوعي الرقمي. لم تعد الثورات تُقاس بالنار والحديد، بل بالنبض الإلكتروني المتوهج في قلب السيليكون. هناك، في تقاطع المعادلات والهندسة، تولد بنية رقمية جديدة تتجاوز ما اعتدنا عليه، وتفتح الباب أمام نمط آخر من الذكاء. الذكاء الاصطناعي لم يعد وعدًا مؤجلاً أو سيناريو مستقبليًا. لقد أصبح واقعًا يوميًا، يتكاثر في السرعة، ويتكامل في الأداء، ويعيد تشكيل علاقاتنا بكل ما حولنا. لم نعد نتحدث عن حواسيب، بل عن كيانات رقمية تنبض بالحوسبة (الحوسبة تعبير يشير الى كل ما يقوم به الحاسوب من مهام حسابية أو تحليلية، سواء كانت بسيطة كجمع الأرقام، أو معقدة مثل تشغيل الذكاء الاصطناعي)، تفكر، تتعلّم، وتشاركنا القرار. وفي هذا الحوار الذي انزله هنا بين الرئيس التنفيذي لمايكروسوفت، ساتيا ناديلا، ونظيره في شركة إنفيديا، جينسن هوانغ، لسنا بصدد استعراض تقنيات باردة أو معالجات معدنية، بل أمام محاولة لفهم ولادة عقل جديد. كيف تحوّلت البنية التحتية للحوسبة السحابية (استخدام الإنترنت لتشغيل البرامج وتخزين البيانات بدلًا من الاعتماد على جهازك الخاص) إلى مصانع للذكاء؟ كيف تزاوجت شرائح المعالجة مع الخوارزميات لتصنع تفكيرًا أقرب إلى الحدس؟ وكيف يمكن لهذا العالم المصغّر داخل رقاقة أن يعيد تشكيل مفاهيم العمل، والتعليم، والطب، وكل ما نظنه “بشريًا”؟ مرحبًا بك في زمن مصانع الذكاء… حيث يُصاغ المستقبل بهدوء، دون ضجيج، لكن بأثر لا يُمحى.
ملخص الحوار
في حوار عميق بين الرئيس التنفيذي لمايكروسوفت، ساتيا ناديلا، ونظيره في شركة إنفيديا، جينسن هوانغ، خلال مؤتمر Build للمطورين، تركز النقاش حول التحولات المتسارعة التي يشهدها عالم الذكاء الاصطناعي، ودور الشراكة بين الشركتين في بناء البنية التحتية اللازمة لهذه الثورة. استهل ناديلا الحديث بالتأكيد على أن ما نشهده اليوم هو “العصر الذهبي” لتلاقي أنظمة السيليكون والبرمجيات، حيث تتكامل المعالجات القوية مع الخوارزميات الذكية لتقديم قدرات غير مسبوقة في عالم الحوسبة. وأشاد بإسهامات إنفيديا التي أعادت إحياء قانون مور، مسرّعة وتيرة التطوير بشكل مذهل. من جهته، أوضح هوانغ أن التعاون مع مايكروسوفت أثمر عن إنشاء أكبر حاسوب فائق مخصص للذكاء الاصطناعي على منصة Azure قبل عامين، وأن هذا التعاون يتطوّر الآن بإدخال نظام Grace-Blackwell إلى الإنتاج الواسع. هذا النظام يدمج بين معالج Grace (CPU) لمعالجة البيانات ومعالج Blackwell (GPU) لتشغيل نماذج الذكاء الاصطناعي، ما يجعل الأداء أكثر قوة وكفاءة، مع قدرة تسريع تصل إلى 40 ضعفًا مقارنة بالجيل السابق Hopper. وتم الربط بين المعالجين عبر تقنية NVLink الفائقة، مما يجعل النظام بأكمله يعمل كوحدة واحدة متناغمة. ناديلا نوّه بأن الابتكار لم يعد مجرد قفزات تقنية، بل أصبح عملية دورية سنوية. فبدلاً من انتظار أربع سنوات لتحديث الأسطول، تسعى مايكروسوفت إلى تحديث البنية التحتية كل عام، مستفيدة من التحسينات المتسارعة في الأداء. وأضاف أن هذا النهج لا يقلل من الكلفة فحسب، بل يعزز من استدامة الاستثمار في الذكاء الاصطناعي، ويزيد من فعالية الأداء الكلي للشبكة السحابية. تطرق الحديث أيضًا إلى أهمية البرامج، حيث أشار هوانغ إلى أن التطوير في CUDA والخوارزميات الحديثة يتيح تحسين أداء المعالجات القديمة حتى بعد مرور سنوات على إصدارها، من خلال تحديثات برمجية فقط. وأوضح أن الحفاظ على توافق البرمجيات عبر الأجيال المختلفة يعزز من ثقة المطورين في النظام، ويشجعهم على الاستثمار العميق في تطوير نماذجهم دون قلق من تغيّر البنية التحتية.كما أكد الطرفان أن وحدات إنفيديا لا تقتصر على تشغيل نماذج الذكاء الاصطناعي، بل تُستخدم أيضًا في معالجة الفيديو، تحليل البيانات، أنظمة التوصية، والبحث الذكي، مما يعزز من استفادة العملاء من الأسطول بأكمله. في الختام، عبّر كل من ناديلا وهوانغ عن فخرهما بالشراكة بين المؤسستين، معتبرين أن ما تحقق خلال عامين فقط هو بداية لما هو أعظم، وأن العالم مقبل على عصر جديد من الحوسبة الذكية سيغيّر كل جوانب الحياة.
الكمات الافتتاحية : مصانع الذكاء، تسريع البرمجيات، قانون مور، أزور، AI Factories, Software Acceleration, Moore’s Law, Azure

الترجمة الكاملة للحوار بين ساتيا ناديلا (الرئيس التنفيذي لمايكروسوفت) وجينسن هوانغ (الرئيس التنفيذي لإنفيديا)، مقسّمة إلى أجزاء معنونة بالعربية الفصحى:
لقد تحدثنا كثيرًا عن كوننا نعيش، ربما مجددًا، العصر الذهبي لتكامل الأنظمة: من عتاد السيليكون إلى البرمجيات.
وأحد الأمور التي تعلمتها منك أن هدفنا المشترك في النهاية هو إيصال المزيد من الذكاء إلى العالم. يمكننا حتى تلخيص الأمر بمعادلة: “عدد الرموز لكل دولار لكل واط” — هذا هو ما سيجعل العالم يزدهر. ولهذا أردت أن أبدأ برأيك حول كل هذا، خصوصًا من نقطة الانطلاق في مجالنا: قانون مور (تطور الحوسبة بسرعة كبيرة من حيث الأداء والتكلفة.). لقد دفعتَ هذا القانون إلى سرعة خارقة. هل تود أن تبدأ بالحديث عن ذلك؟
نربط بين Grace وBlackwell عبر قنوات فائقة السرعة، وهو أمر حاسم في عالم نماذج التخزين المؤقت (KV caching).
وعند جمع كل هذا مع خوارزميات CUDA الجديدة وتحتية الذكاء الاصطناعي في أزور، نحصل على تسريع بمعدل 40 ضعفًا مقارنة بـ Hopper خلال عامين فقط. هذا أمر مذهل!
العنصر | الوظيفة |
---|---|
Grace | يعالج البيانات وينظم العمل |
Blackwell | يشغّل نماذج الذكاء الاصطناعي الضخمة |
معًا | يشكّلان “مصنع ذكاء اصطناعي” خارق السرعة والكفاءة |
يجب إنشاء مراكز بيانات صغيرة ومتطورة كل عام. وهكذا، تحصل على أداء متوسط أعلى عبر الأسطول بأكمله. لم نعد نبني حواسيب شخصية، بل مصانع ذكاء اصطناعي هائلة. وهذا يتطلب تكاملاً شديد الدقة بين مؤسستينا.
مدير الموقع : بدافع الرغبة في أن تصل الفكرة بوضوح إلى كل من يهمّه الأمر، ارتأيت أن أحوّل هذا الحوار من صورته المسموعة والمرئية إلى نص مكتوب بلغة مبسطة. هناك بعض الكلمات حين تُقرأ، تُمنح فرصة أوسع للتأمل، وبعض المعاني تستحق أن تُعاد مراجعتها على مهل. أرجو أن يكون في هذا الشكل ما يُقرب الفائدة ويفتح باب الفهم أمام عدد أكبر من القرّاء. د. الحسن اشباني
الملحقات :
الملحق 1: كيف يرتبط قانون مور مع منصة Azure في تسريع تطور الذكاء الاصطناعي:
العلاقة بين قانون مور وAzure في الذكاء الاصطناعي
1. قانون مور = تسريع الأجهزة
- كلما زاد عدد الترانزستورات على الشريحة، زادت قوة المعالجة.
- هذا التطور سمح بظهور وحدات معالجة الرسوميات (GPUs) الحديثة مثل Hopper وBlackwell من NVIDIA.
- هذه الشرائح هي القلب النابض لأي نظام ذكاء اصطناعي، لأنها تعالج مئات الآلاف من العمليات الحسابية في نفس الوقت.
النتيجة: أصبح بالإمكان تدريب نماذج ذكاء اصطناعي ضخمة مثل GPT وLlama بسرعة أكبر وكلفة أقل.
2. Azure = بنية تحتية جاهزة لتشغيل الذكاء
- Azure توفر خوادم سحابية تحتوي على أحدث شرائح المعالجة.
- المستخدمون (مثل الشركات أو المطورين أو الجامعات) لا يحتاجون لشراء أجهزة باهظة الثمن.
- يمكنهم فقط استئجار القدرة الحاسوبية من Azure والعمل عن بعد.
النتيجة: يستطيع أي شخص أو مؤسسة بناء أو تشغيل ذكاء اصطناعي متقدم من خلال Azure.
3. قانون مور + Azure = تسريع مضاعف
عندما يتطور العتاد (بفضل قانون مور) ويتوفر في السحابة (مثل Azure)، يحدث ما يلي:
العامل | التأثير |
---|---|
قانون مور | معالجات أقوى وأرخص كل سنة |
Azure | وصول فوري لهذه المعالجات حول العالم |
معًا | ذكاء اصطناعي أسرع، أرخص، وأكثر انتشارًا |
الملحق 2 : نظام “غرايس-بلاكوِل” (Grace-Blackwell):
ما هو نظام غرايس-بلاكوِل؟ هو أحدث نظام حوسبة متقدم من شركة NVIDIA، مصمَّم خصيصًا لتشغيل أكبر وأسرع نماذج الذكاء الاصطناعي في العالم، مثل ChatGPT وLLaMA وغيرها. يتكوّن هذا النظام من دمج معالجين خارقين:
1. Grace (غرايس)
- هو معالج مركزي (CPU) صمّمته NVIDIA خصيصًا للذكاء الاصطناعي.
- يتميّز بأنه سريع جدًا في التعامل مع البيانات الكبيرة والمعقدة.
- مبني على تقنية ARM (نفس التقنية المستخدمة في هواتف آيفون الحديثة).
2. Blackwell (بلاكوِل)
- هو معالج رسومي (GPU) قوي جدًا من الجيل الجديد.
- وظيفته الأساسية هي تدريب وتشغيل نماذج الذكاء الاصطناعي العملاقة بسرعة مذهلة.
- أسرع من الجيل السابق (Hopper) بـ40 مرة!
كيف يعمل نظام “غرايس-بلاكوِل”؟
- يتم ربط المعالجين معًا بسرعة فائقة عبر نظام اتصال خاص يسمى NVLink.
- Grace يعالج البيانات ويدير العمليات العامة.
- Blackwell يتولى الحسابات الرياضية الثقيلة الخاصة بالذكاء الاصطناعي.
- النتيجة: جهاز ذكي يعمل مثل مصنع ذكاء اصطناعي متكامل، أقوى بمئات المرات من أجهزة الحاسوب العادية.
لماذا هو مهم؟
- يمكنه تشغيل مليارات الرموز في الثانية، ما يجعل نماذج مثل GPT-4 أسرع وأرخص.
- يستهلك طاقة أقل مقارنة بالأداء الذي يقدّمه
- يُستخدم في بناء مراكز بيانات ضخمة، مثل التي تديرها مايكروسوفت عبر منصة Azure.
تشبيه بسيط: تخيّل أن لديك سيارة عادية (حاسوب تقليدي)، أما غرايس-بلاكوِل فهو قطار فائق السرعة مخصّص لنقل أطنان من المعلومات بسرعة البرق!
العنصر | الوظيفة |
---|---|
Grace | يعالج البيانات وينظم العمل |
Blackwell | يشغّل نماذج الذكاء الاصطناعي الضخمة |
معًا | يشكّلان “مصنع ذكاء اصطناعي” خارق السرعة والكفاءة |
المقالات ذات الصلة :
https://dr-achbani.com/ثورة-الذكاء-الاصطناعي-في-الفصول-الدرا