الذكاء الاصطناعي: شريك في التفكير أم بداية الإقصاء؟ (الجزء 2)

د. الحسـن اشباني
مدير البحث سابقا بالمعهد الوطني للبحث الزراعي بالمغرب و صحفي مهني علمي
ملخص الجزء الاخير للحوار
يكشف الجزء الثاني من الحوار عن الوجه الأكثر حساسية في ثورة الذكاء الاصطناعي، حيث ينتقل النقاش من الانبهار بالتكنولوجيا إلى أسئلة القوة والخوف والمستقبل. يسلّط الخبراء الضوء على ما يشبه “حربًا باردة ذكية” بين الولايات المتحدة والصين، سباقٌ عالمي محموم يدفع نحو تطوير أنظمة أكثر قوة وأسرع قرارًا، حتى ولو تراجعت القيود الأخلاقية تحت ضغط المنافسة. وفي قلب هذا السباق، تتغير طبيعة الحروب جذريًا: الدرونز ذاتية القيادة، “حروب الأسراب”، وتسارع قرارات الاستهداف من أيام إلى ثوانٍ، في مشهد يثير سؤالًا مرعبًا: ماذا يحدث عندما يتقلص دور الإنسان في أخطر القرارات؟
ومع ذلك، لا يسقط الحوار في التشاؤم المطلق. فالخبراء يؤكدون أن الذكاء الاصطناعي لا يملك إرادة مستقلة؛ بل يظل انعكاسًا لنوايا البشر الذين يصممونه ويستخدمونه. الخطر الحقيقي ليس في تمرد الآلة، بل في سوء استخدامها. ومن هنا تتصاعد الدعوة إلى تشريعات صارمة، واختبارات أمان دقيقة، وشفافية أكبر قبل إدخال هذه الأنظمة في المجالات الحساسة.
ويفتح النقاش باب الأمل أيضًا، مذكرًا بأن الذكاء الاصطناعي يحمل فرصًا هائلة في الطب والتعليم والاقتصاد، إذا وُجّه نحو الخير. ويختتم الحوار برسالة واضحة: المستقبل لن ينتظر المترددين. المطلوب وعيٌ نقدي، وتعاون علمي عربي، وإدماج مبكر للذكاء الاصطناعي في التعليم، لبناء حضور رقمي قوي قادر على مواكبة التحولات العالمية وصناعة أثر اجتماعي حقيقي.
النص الكامل للجزء الاخير من الحوار

الصحفي عثمان إي فرح: وهذا هو مصدر القلق الذي تحدثتَ عنه سابقًا في التعليم؟
الدكتور ياسر المحيو: بالضبط. أنا أخشى أن يقوم الذكاء الاصطناعي بالتفكير بدلًا عن الإنسان، خاصة في المراحل التعليمية المبكرة. هل هذه مشكلة؟ نعم، هي مشكلة حقيقية. طيب، ما الحل؟ الحل ليس في المنع، بل في إعادة هيكلة علاقتنا بالتكنولوجيا. كثير من الناس يتحدثون عن الخوارزميات1 وكأنها شيء تقني بعيد، لكن المسألة أبسط وأعمق في الوقت نفسه. نحن اليوم عندما نتحدث عن «تشات جي بي تي»، يجب أن نُدرك أنه ليس أقوى النماذج أصلًا، بل هو من أبسطها نسبيًا.
1 الخوارزميات هي مجموعة من الخطوات أو التعليمات المنطقية المرتّبة التي يتبعها الحاسوب لحلّ مشكلة معيّنة أو تنفيذ مهمة محددة، مثل البحث في الإنترنت، الترجمة، أو اقتراح المحتوى المناسب للمستخدم.




الصحفي عثمان إي فرح: ولكن السؤال التالي هو إلى أي مدى يقوم الذكاء الاصطناعي بغسل أدمغتنا؟
الدكتور ياسر المحيو: هناك مقولة معروفة للفيلسوف يوفال نوح هراري تقول إننا أمام حالة نادرة في التاريخ الإنساني: الآلة تزداد ذكاءً بينما البشر يزدادون غباءً. لماذا؟ لأن الثورات الصناعية كانت تتطور على مراحل؛ فالثورة الصناعية الأولى قامت على المكننة والآلات الميكانيكية كبديل عن الطاقة العضلية للإنسان، ثم جاءت الحواسيب والإنترنت فأتمتت المهام، لكن الدماغ البشري ظل هو مركز التفكير. أما اليوم فنحن أمام مرحلة جديدة هي «أتمتة المعرفة»، أي أن التكنولوجيا بدأت تمسّ مباشرة القدرات الذهنية للبشر. أنا شخصيًا عشت هذا التحول؛ قبل عشرين أو خمسٍ وعشرين سنة كنت أحفظ أرقام الهواتف، ومع ظهور الهواتف الذكية لم أعد أحفظ حتى رقمي الشخصي. كذلك في المدارس كان يُمنع استخدام الآلة الحاسبة فنحفظ جدول الضرب والقسمة، أما اليوم فالذكاء الاصطناعي لا يتجه فقط إلى حل العمليات الحسابية بل قد يحل محل عملية التفكير نفسها. وهذا ما أخشاه تحديدًا في التعليم: أن يفكر عن الطالب بدلًا منه. إذن نعم هذه مشكلة، والحل هو إعادة هيكلة طريقة تعامل البشر مع هذه التكنولوجيا.
الصحفي عثمان إي فرح: كثيرون يتحدثون عن الخوارزميات، لكن دعنا نبسّط الأمر.
الدكتور ياسر المحيو: نحن نتحدث غالبًا عن ChatGPT، لكنه في الحقيقة ليس أقوى النماذج؛ فهناك نماذج متقدمة جدًا مثل Gemini و Claude، بل ونماذج صينية متطورة للغاية. الفرق كبير بين من يستخدم الذكاء الاصطناعي لسؤال بسيط مثل معرفة لون البطيخة، وبين من يستخدمه لبناء تطبيق يترك أثرًا حقيقيًا في حياة البشر. لدي مثال حقيقي لشخص لا يعرف البرمجة استخدم أدوات مفتوحة المصدر مثل Claude و Replit وتمكن خلال سنة واحدة من بناء تطبيق قدّم استشارات مالية لأكثر من 5000 شركة، وهو عمل كان سيحتاج عشر سنوات تقليديًا. الذكاء الاصطناعي قد يجعلنا أقل ذكاء إذا استخدمناه بسطحية، وقد يجعلنا أكثر ذكاء إذا استخدمناه لتطوير مهاراتنا.
الصحفي عثمان إي فرح: كثيرون يخشون اليوم من غسيل الأدمغة عبر وسائل التواصل الاجتماعي والخوارزميات. هل يحدث ذلك فعلًا؟ وهل يتم عن قصد؟
الدكتور ياسر المحيو: نحن نعيش اليوم في عالمين متوازيين: العالم الفيزيائي والعالم الافتراضي، ولكل شخص نسخة رقمية على وسائل التواصل. جوهر المسألة هو الإنسان وكيف يستخدم هذه التكنولوجيا، لكن مفهوم «الاستخدام المسؤول» يختلف من مجتمع إلى آخر. هنا يظهر سؤال فلسفي مهم: هل المطلوب من الإنسان حفظ المعرفة أم فهمها؟ نعم، الذكاء الاصطناعي يؤثر في عقولنا وله وجه إيجابي وآخر سلبي، ومن أبرز التحديات ما يسمى «التحيز».
الصحفي عثمان إي فرح: هل التحيز مقصود أم غير مقصود؟
الدكتور ياسر المحيو: كلاهما موجود. التحيز غير المقصود يحدث بسبب اختلال توازن البيانات. مثلًا إذا دُرّب نموذج طبي على صور أشعة وكانت الحالات السليمة أكثر بكثير من حالات السرطان فسيتحيز تلقائيًا للحالات السليمة. ومثال آخر: خوارزمية التوظيف في شركة أمازون التي تبيّن أنها تتحيز للذكور لأنها تدربت على سير ذاتية ذكورية أكثر. لكن هناك أيضًا تحيز مقصود، مثل بعض أنظمة التعرف على الوجوه التي تميّز ضد أصحاب البشرة الداكنة، أو خوارزميات وسائل التواصل التي توجه المستخدم نحو المحتوى الأكثر جذبًا للمشاهدات لا الأكثر دقة علميًا. فمثلًا فيديوهات «الأرض المسطحة» تجذب الانتباه، فتبدأ الخوارزميات في اقتراح المزيد منها، ومع التكرار يبدأ الإنسان بالاعتقاد أن هناك شيئًا من الصحة في الفكرة، وهنا تكمن الخطورة، فالتكرار يصنع الوهم، لا الحقيقة.

الصحفي عثمان إي فرح: هذا هو التحيّز المقصود إذن، وليس فقط البعد التجاري؟
الدكتور نبيل عودة: نعم، ليس تجاريًا فقط من أجل زيادة المشاهدات، بل قد يكون موجّهًا سياسيًا أيضًا. في قضايا مثل غزة أو الانتخابات، يمكن توجيه المستخدم في اتجاه معيّن عبر ما يُعرف باقتصاد الانتباه. مثلًا يمكن إيهام المستخدم بأن عددًا كبيرًا من الناس يؤيد مرشحًا معيّنًا، فيُقال له ضمنيًا: “كن مع الفريق الفائز”. ويتم ذلك عبر إرسال كمّ هائل من الرسائل، أحيانًا من حسابات حقيقية وأحيانًا من حسابات افتراضية، لإعطاء انطباع بأن التأييد يتزايد، وهو ما يؤثر في القناعات والمواقف السياسية. بل يمكن في قضايا مثل إسرائيل وفلسطين تصوير المعتدي على أنه الضحية عبر التأثير المتكرر على الوعي الجمعي.
الصحفي عثمان إي فرح: لكن الملفت في موضوع غزة أن ما حدث كان عكس ذلك. ما الذي لاحظتموه تحديدًا؟
المهندس حمدي مبارك: غزة ربما كانت أول حرب في التاريخ تُخاض بهذا الشكل على الفضاء الرقمي. صحيح أن الحروب السابقة كان جزء منها يُنقل عبر الإعلام، مثل حرب العراق عام 2003 حين دخلت الجزيرة كقناة غير غربية تنقل الحدث مباشرة، لكن حرب غزة كانت مختلفة جذريًا. كانت حرب بث مباشر من الناس أنفسهم؛ أشخاص يحملون هواتفهم وينقلون الحدث لحظة بلحظة. تأثير الناس العاديين كان قويًا جدًا، ولم تستطع إسرائيل رغم ترسانتها العسكرية والإعلامية منع وصول الحقيقة إلى الجمهور، وفشل ما يُسمّى بالتلاعب الإعلامي لأن الرواية لم تعد حكرًا على مؤسسة أو قناة.
الدكتور ياسر المحيو: هذا الأمر ليس جديدًا بالنسبة لي؛ فقد أجريت دراسة سابقة حول الوسوم المتعلقة بدعم إسرائيل مقابل الوسوم الداعمة لفلسطين في أحداث الشيخ جراح، ووجدت أن التفاعل والانخراط مع الوسوم المؤيدة لفلسطين كان أعلى بكثير. يمكن القول إن الهيمنة التقليدية على الإعلام بدأت تتصدّع، لأننا دخلنا عصر الإعلام البديل والموازي، بل تجاوزنا مرحلة السوشيال ميديا إلى مرحلة ما بعد السوشيال ميديا مع دخول الذكاء الاصطناعي.
الصحفي عثمان إي فرح: لكن مع كل أدوات الذكاء الاصطناعي المتاحة، لماذا فشلوا إلى حد كبير في السيطرة على الرواية؟
الدكتور نبيل عودة: السبب أن التكنولوجيا تاريخيًا تكسر الاحتكار. في زمن الطباعة كانت الكنيسة تحتكر السردية الدينية، ثم جاءت الطباعة وحدثت ديمقراطية المعرفة. الأمر نفسه يحدث اليوم؛ الذكاء الاصطناعي كسر احتكار البرمجة، والسوشيال ميديا كسرت احتكار الإعلام.
المهندس حمدي مبارك: إضافة إلى ذلك، الناس بدأت تتحايل على القيود الرقمية، فتغيّر الكلمات وتمزج بين العربية والإنجليزية لتجاوز الخوارزميات. حتى تقنيات الذكاء الاصطناعي نفسها يمكن الالتفاف على قيودها عبر ما يُعرف بـ“التحايل على الأوامر” أو Prompt Hacking. التكنولوجيا تمنح دائمًا طرقًا جديدة لتجاوز القيود، ولهذا يستمر الصراع بين المنصات والمستخدمين.
الصحفي عثمان إي فرح:هل نفهم من ذلك أن المعركة أصبحت معركة تحايل متبادل بين المستخدمين والخوارزميات؟
المهندس حمدي مبارك: بالفعل، الذكاء الاصطناعي يتعلم من البشر، وحتى محاولات التحايل نفسها تُدرَّب النماذج عليها. فالحروف العربية مثلًا قد تُكتب بأشكال مختلفة، ويتم تدريب الأنظمة على هذا المحتوى، فتتحول المسألة إلى معركة تحايل مستمرة: المنصات تضع قيودًا، والمستخدمون يبحثون عن طرق للالتفاف عليها. التكنولوجيا نفسها تمنح أدوات كسر القيود، لذلك لا يمكن إغلاق الشاشة تمامًا؛ بل إن الأمر يشبه إطفاء الكهرباء، أي أن الحلول التقنية وحدها لا تكفي.
الدكتور نبيل عودة: أود التعليق على مسألة التحايل. لو طلبت من نموذج ذكاء اصطناعي كتابة خطاب كراهية أو محتوى مخالف للقانون، سيرفض مباشرة. لكن في بحث حديث نشرناه في مؤتمر بالصين، تمكّنا من استخراج عشرات الآلاف من الأوامر المخالفة عبر التلاعب بصياغة الطلبات. نشرنا هذا العمل لإبراز الثغرات الموجودة في النماذج الحالية. الإنسان يحاول دائمًا إيجاد طرق جديدة للوصول لما يريد، ولهذا تبقى هذه الثغرات قائمة.
الصحفي عثمان إي فرح:كيف يمكن إذن حماية أنفسنا من التوجيه المتعمّد؟
الدكتور ياسر المحيو: الحماية تبدأ بالوعي. يجب أن يدرك المستخدم أن الذكاء الاصطناعي مجرد برنامج تدرب على محتوى بشري، وقد يخطئ أو يتحيز. التفكير النقدي أساسي: اطلب المراجع دائمًا، تحقّق من المعلومات، واشكك في النتائج بدل قبولها تلقائيًا. التكرار يصنع الوهم، كما يحدث في مثال “الأرض المسطحة”، حيث يظن الناس أن الجميع يؤمن بالفكرة بسبب كثرة تكرارها.
الدكتور نبيل عودة: نحن نعيش حالة انبهار واكتشاف في الوقت نفسه. الذكاء الاصطناعي يعكس قيم من يطوّره؛ فإذا درّب بروح مسؤولة خدم الإنسان، وإذا استُخدم بلا أخلاق قد يتحول إلى أداة مراقبة أو توجيه، كما حدث في استخدامه بالمراقبة وتوجيه الأسلحة. لذلك تبقى التشريعات والوعي المجتمعي ضروريين.
المهندس حمدي مبارك: مع ذلك، النماذج تتطور بسرعة، وأصبحت تقدّم المراجع تلقائيًا نتيجة المنافسة بين الشركات لتحسين الدقة. الحماية ليست مختلفة عن أي تكنولوجيا أخرى؛ قيادة السيارة تحتاج تدريبًا، وكذلك استخدام الذكاء الاصطناعي يتطلب حدًا أدنى من الثقافة الرقمية.
الصحفي عثمان إي فرح: لكن يبقى الخوف من كسل الإنسان وتسليم عقله للنماذج.
الدكتور ياسر المحيو: وهذا ما يدفعنا للحديث عن ضرورة “محو أمية الذكاء الاصطناعي”، كما حدث سابقًا مع مهارات الحاسوب الأساسية؛ فاليوم أصبح من الضروري أن يمتلك الأفراد مهارات التعامل مع الذكاء الاصطناعي كما امتلكوا سابقًا مهارات استخدام الحاسوب.
الصحفي عثمان إي فرح: هل ينبغي إدماج الذكاء الاصطناعي ضمن المناهج التعليمية بشكل إلزامي؟
الدكتور ياسر المحيو: نعم، في رأيي يجب أن يصبح تعليم الذكاء الاصطناعي شرطًا أساسيًا للتخرج، كما هي الحال مع مواد اللغة. ينبغي أن تتضمن المناهج مقررات في الذكاء الاصطناعي التوليدي، لأن رفع مستوى الوعي هو الوسيلة الأهم لتقليل المخاطر والانحيازات. التوعية لا تأتي من برنامج واحد أو اثنين، بل من مؤسسات كاملة تضع إجراءات واضحة وتدعم الثقافة الرقمية داخل المجتمع، حتى في البيت بين الآباء والأبناء، خاصة أن الأبناء غالبًا أكثر معرفة بالتكنولوجيا من آبائهم. منع الأطفال من استخدام الأدوات ليس حلًا؛ لأنه يدفعهم لاستخدامها في الخفاء، لذا يجب بناء وعي مشترك وتفاهم بين الأهل والطلاب.
الدكتور نبيل عودة: هناك اتجاه متسارع نحو اكتشاف المحتوى المولَّد بالذكاء الاصطناعي، مثل الصور والفيديوهات والصوتيات المفبركة. تعمل التشريعات حاليًا على فرض “بصمات رقمية خفية” داخل المحتوى المولّد، بحيث لا يراها البشر لكن تستطيع الخوارزميات اكتشافها. هذه التقنيات تساعد في كشف الأخبار الزائفة والفيديوهات المفبركة، رغم استمرار محاولات التحايل عليها بطرق مختلفة.

المهندس حمدي مبارك: بالفعل، توجد برامج قادرة على تحديد ما إذا كان النص أو الفيديو مولدًا آليًا بنسبة عالية، لكن البشر يحاولون التحايل، مثل ترجمة النص عدة مرات أو إعادة صياغته. لذلك تبقى التوعية ضرورية دائمًا.
الصحفي عثمان إي فرح: ما الوظائف التي قد تختفي مع الذكاء الاصطناعي؟
الدكتور ياسر المحيو: رغم المخاوف، أظهرت الدراسات أن اعتماد الذكاء الاصطناعي يزيد الإنتاجية وبالتالي يزيد التوظيف عمومًا، لكنه يغير المهارات المطلوبة. الأعمال الروتينية المعرفية ستتراجع، مثل خدمة العملاء أو التدقيق اللغوي، حيث قد ينخفض عدد العاملين فيها بدل اختفائهم تمامًا. الذكاء الاصطناعي لن يزيل الوظائف كليًا، بل سيعيد تشكيلها ويقلل الحاجة للأعداد الكبيرة في بعض المجالات.
الأمن السيبراني هو مجال يهدف إلى حماية الأنظمة الرقمية وكل ما يتصل بالإنترنت من هجمات أو اختراقات أو سوء استخدام. يشمل ذلك حماية الحواسيب والهواتف والشبكات والخوادم والبرامج والبيانات من السرقة أو التخريب أو التجسس.
الصحفي عثمان إي فرح: ما الذي سيحدث للمهارات والوظائف في عصر الذكاء الاصطناعي؟
الدكتور ياسر المحيو: كل المهارات القائمة على المعرفة الروتينية ستتراجع أو يقل الطلب عليها، ولهذا نحن ندخل مرحلة “المهارات العالية”. المستقبل سيطلب مهارات أعمق وأكثر تعقيدًا. خذ مثال السائقين، المهنة لن تختفي، لكنها ستتغير؛ فبدل قيادة سيارة واحدة، قد يدير السائق أسطولًا كاملًا من السيارات ذاتية القيادة من خلف شاشة، أي أن الإنسان سيبقى موجودًا لكن بمهارات أعلى تشمل إدارة الأنظمة والتقنيات. الأمر نفسه في البرمجة؛ بدل قضاء سنوات طويلة في تعلم لغات البرمجة فقط، سيصبح التركيز على استخدام هذه اللغات لصناعة حلول ذات أثر حقيقي، ما يفرض إعادة هيكلة التعليم نحو المهارات العليا. التكنولوجيا تاريخيًا تخلق وظائف جديدة كما تُقلص أخرى، مثل الأمن السيبراني الذي لم يكن موجودًا قبل عقود وأصبح اليوم من أكثر المجالات طلبًا. كما سيزداد الطلب على تخصصات العلوم الإنسانية، خصوصًا أخلاقيات الذكاء الاصطناعي، لأن الشركات ستحتاج إلى خبراء يضعون قرارات أخلاقية داخل الأنظمة. مثال ذلك السيارات ذاتية القيادة التي يجب أن تتخذ قرارات أخلاقية لحظية لتقليل الضرر في الحوادث، وهذه قرارات لا يضعها المبرمج وحده بل خبراء الأخلاقيات.
الدكتور نبيل عودة: التغير في الوظائف ليس جديدًا؛ فظهور الآلة الحاسبة لم يُلغِ المحاسبين بل غيّر مهاراتهم نحو تحليل البيانات. وكذلك الصراف الآلي خلق وظائف جديدة بدل إلغائها. مع الذكاء الاصطناعي ستتأثر وظائف مثل السكرتارية، إدخال البيانات، والتدقيق اللغوي والمهام الإدارية المتكررة، لأن الأنظمة أصبحت قادرة على إدارة الاجتماعات، كتابة الرسائل، وجدولة الأعمال.
المهندس حمدي مبارك: المجالات التقنية نفسها ستتأثر؛ فالوظائف المتكررة في قطاع تقنية المعلومات ستتقلص مع الوقت عندما تُغذّى الأنظمة ببيانات الأعطال والحلول المتكررة، مما يغير طبيعة العمل ويزيد الحاجة إلى مهارات تحليلية وإبداعية أعلى.
الصحفي عثمان إي فرح: أي القطاعات ستكون الأكثر تأثرًا بالذكاء الاصطناعي؟
المهندس حمدي مبارك: وفق تقرير المنتدى الاقتصادي العالمي 2023 فإن أكثر من 70٪ من قطاع تقنية المعلومات سيكون من أكثر القطاعات تأثرًا. فالدعم الفني، التنبؤ بالأعطال، الأمن السيبراني، وتحليل البيانات المالية والتنبؤ بالأسواق كلها مجالات يمكن أن تتغير جذريًا. هذا لا يعني اختفاء العاملين فيها، بل حاجتهم لرفع مهاراتهم ليصبحوا قادرين على العمل مع الذكاء الاصطناعي، مثل المحاسب الذي لم يعد دوره يقتصر على العمليات الحسابية بل تحليل البيانات والتعامل مع الأنظمة الذكية. وحتى الترجمة تأثرت؛ فاليوم يمكن التواصل والسفر والاجتماعات بلغات مختلفة بفضل الترجمة الفورية. وكما قال رئيس إنفيديا: الذكاء الاصطناعي لن يستبدل الصحفي، بل سيستبدل الصحفي الذي لا يتقنه.
الدكتور نبيل عودة: لا أؤمن بفكرة اختفاء الوظائف بقدر ما أؤمن بتحولها. الوظائف الروتينية ستتغير، لكن الذكاء الاصطناعي سيخلق ثروة اقتصادية ضخمة قد تصل إلى 16 تريليون دولار بحلول 2030 نتيجة زيادة الإنتاجية وخفض التكاليف وظهور صناعات ووظائف جديدة بالكامل. لكن تأثيره سيختلف بين الدول؛ فالفجوة الرقمية ستتسع بين الدول المتقدمة والنامية بسبب البنية التحتية والحوسبة السحابية والكوادر البشرية. في العالم العربي مثلًا، نسبة المهارات الرقمية الأساسية لا تزال منخفضة، ما يفرض تحديات كبيرة.

الدكتور ياسر المحيو: بناء نماذج ذكاء اصطناعي محلية مكلف جدًا ويتطلب استثمارات ضخمة وبنية تحتية قوية وكوادر متخصصة وشرائح حوسبة متقدمة، إضافة إلى تحدي ضعف المحتوى العلمي العربي مقارنة بالإنجليزي. تدريب نموذج واحد قد يستغرق شهورًا وتكاليف بملايين الدولارات، ما يفسر لماذا تتقدم الدول التي تستثمر في الشراكات وبناء مراكز البيانات. الاستثمار في التكنولوجيا لم يعد خيارًا ترفيهيًا بل ضرورة استراتيجية للحاق بالمستقبل.
الصحفي عثمان إي فرح: قد يأتي وزير في دولة ذات إمكانيات محدودة ويسأل: لا أملك ميزانيات قطر أو السعودية أو الإمارات، ولا أريد أن يتجاوزني الزمن، ماذا يمكن أن أفعل؟
المهندس حمدي مبارك: يمكن الاستفادة من خبرات الدول التي بدأت مبكرًا، وهذا ما نقوم به فعليًا في معهد قطر لبحوث الحوسبة؛ فقد نشرنا تقارير تقنية مفصلة تتيح لأي حكومة أو جامعة عربية البدء دون تكرار الأخطاء السابقة. يمكن للجامعات الاستفادة من تجارب قطر والإمارات والسعودية والانطلاق بتكلفة أقل بكثير. كما أن ظهور نماذج أقل تكلفة مثل «ديب سيك» أثبت أن الابتكار لا يتطلب دائمًا ميزانيات ضخمة، إذ يمكن تحسين الخوارزميات والعودة للأساسيات لتحقيق قفزات كبيرة بتكلفة أقل.
الدكتور نبيل عودة: تجربة الصين مثال واضح؛ فعندما فُرضت قيود على تصدير الرقائق المتقدمة، اضطرت إلى استخدام شرائح أقدم وبنت نماذج فعالة بتكلفة أقل، ما يثبت أن القيود قد تدفع للابتكار. بالنسبة للدول العربية غير الغنية، القيمة الحقيقية ليست في بناء نموذج من الصفر، بل في تخصيص النماذج المتاحة لمجالات محددة كالتعليم والطب والرياضيات عبر شراكات إقليمية بين الجامعات والدول، مما يقلل الفجوة الرقمية.
الدكتور ياسر المحيو: رغم الحاجة لاستثمارات ضخمة عالميًا، إذ أنفقت الشركات الأمريكية نحو 110 مليارات دولار مقابل 30 مليارًا للصين، فإن الفرصة ما تزال متاحة عربيًا. فالمحتوى العربي عالي الجودة، مثل ما يُنتج في الأردن، يمثل وقود النماذج. كما أن نماذج التطوير تختلف بين الاقتصاد الأمريكي القائم على الشركات والصيني القائم على دعم الدولة، بينما يمتلك العالم العربي موارد بشرية واعدة. والأهم أن هذه الثورة التقنية متاحة اليوم بتكاليف أقل؛ فباشتراك شهري بسيط يمكن لأي مطور استخدام أدوات برمجية تبني تطبيقات مربحة، بينما تُنفق المليارات أساسًا على تدريب النماذج وبناء القدرة الحاسوبية.
الصحفي عثمان إي فرح: ما الذي يمكن فعله بتكلفة قليلة في مجال الذكاء الاصطناعي؟
المهندس حمدي مبارك: ما يمكن فعله بتكلفة شبه صفرية هو التعلم والتطبيق. اليوم يمكن لأي شخص بناء برنامج قد تبلغ قيمته عشرات آلاف الدولارات باشتراك شهري بسيط لا يتجاوز 25 دولارًا. في الماضي كانت المعرفة التقنية محتكرة في جامعات ومختبرات محددة، وكان الوصول إليها صعبًا ومقيدًا، أما اليوم فالبيانات والخوارزميات متاحة، ويمكن لأي شاب أن يصبح عالم ذكاء اصطناعي إذا امتلك الإرادة. لذلك لا ينبغي لأي مسؤول أن يقول إن الإمكانيات المحدودة تمنع التقدم؛ فهناك الكثير الذي يمكن البدء به فورًا عبر الاستثمار في التعليم وبناء المهارات.
الدكتور نبيل عودة: المنافسة العالمية اليوم تتمحور أساسًا بين الولايات المتحدة والصين، ولم تعد مجرد منافسة تقنية بل أصبحت صراعًا جيوسياسيًا. فالذكاء الاصطناعي يسرّع الإنتاج ويعزز الهيمنة الاقتصادية والعسكرية، لذلك شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة للصين، فردّت الصين بتطوير نماذج قوية باستخدام شرائح أقدم وبنشر نماذج مفتوحة المصدر تساعد الدول الأقل ثراءً على تقليص الفجوة الرقمية. كما ردت الصين بقيود على تصدير المعادن النادرة المستخدمة في تصنيع الرقائق، ما يعكس البعد السياسي العميق لهذا السباق.
الدكتور ياسر المحيو: أوروبا تقف في موقع الوسيط، مركزة على التشريعات وأخلاقيات الاستخدام، بينما يستفيد العالم من التنافس الأمريكي-الصيني. فالتكنولوجيا الأمريكية غالبًا ما تتطلب تكاليف مرتفعة للاستخدام المؤسسي، في حين توفر نماذج صينية مفتوحة المصدر مثل «كوين»* إمكانية بناء منظومات كاملة دون تكاليف كبيرة. هذه النماذج متعددة اللغات وتحقق أداءً متقدمًا حتى في اللغة العربية، ما يمنح الجامعات والمؤسسات فرصة حقيقية لتبني الذكاء الاصطناعي دون الحاجة لبناء النماذج من الصفر.
* نماذج «كوين» (Qwen) هي عائلة نماذج ذكاء اصطناعي مفتوحة المصدر طوّرتها شركة علي بابا (Alibaba Cloud). وهي شبيهة بنماذج GPT أو Llama، لكن ما يميزها أنها متاحة للباحثين والجامعات والشركات لبنائها وتخصيصها محليًا.
يتسارع التطور بشكل هائل في الذكاء الاصطناعي، خاصة في القطاع الطبي، كقدرته في تحليل البنية ثلاثية الأبعاد للبروتينات خلال أشهر بدل سنوات، مما سيطور الأدوية واللقاحات بسرعة غير مسبوقة.
الصحفي عثمان إي فرح: كيف تبدو خريطة النماذج العالمية اليوم، وإلى أين وصل الذكاء الاصطناعي فعليًا؟
الدكتور ياسر المحيو: النماذج الصينية ظهرت متأخرة نسبيًا لكنها غالبًا أصغر حجمًا، مفتوحة المصدر، وتقدم أداء قويًا خاصة في اللغة العربية، مثل نموذج «كوين». في المقابل، تقود الشركات الأمريكية السباق عبر نماذجها الخاصة مثل ChatGPT وGemini وClaude وGrok، بينما تحاول أوروبا اللحاق عبر نماذج مثل Mistral، مع محاولات من سنغافورة وبعض الدول العربية. الفرق أن الشركات الأمريكية تطور النماذج بتمويل ضخم، بينما في الصين يوجد دعم حكومي واسع، ما يجعل المنافسة بين نموذجين اقتصاديين مختلفين. وإذا لم تحظَ النماذج العربية بالدعم الكافي فقد تختفي رغم وجود تجارب واعدة.
الدكتور نبيل عودة: التسارع الحالي بلا قيود حقيقية، لأن أي تنظيم صارم قد يضعف المنافسة أمام الطرف الآخر. لذلك يتسارع التطور بشكل هائل، خاصة في القطاع الطبي. مثال بارز هو قدرة الذكاء الاصطناعي على تحليل البنية ثلاثية الأبعاد للبروتينات خلال أشهر بدل سنوات، وهو إنجاز يفتح الباب لتطوير الأدوية واللقاحات بسرعة غير مسبوقة.

المهندس حمدي مبارك: في التشخيص الطبي، يساعد الذكاء الاصطناعي الأطباء عبر تحليل الصور الطبية واكتشاف أنماط لا تراها العين البشرية، مع بقاء القرار النهائي للطبيب. كما تفوق في اختبارات الذكاء العاطفي بنسبة كبيرة، لأنه يعتمد على تحويل المعرفة البشرية إلى لغة وتحليل العلاقات بين الكلمات والسياق باستخدام تقنيات «الانتباه» التي غيرت مسار الذكاء الاصطناعي منذ 2018، لتصبح النماذج قادرة على فهم النصوص والصور والفيديو ضمن سياق واحد شامل.
الصحفي عثمان إي فرح: هل وصل الذكاء الاصطناعي إلى مرحلة الفهم الحقيقي للإنسان؟ وهل يمكن أن يصبح مستقلًا؟
الدكتور ياسر المحيو: الهدف الأساسي من تطوير النماذج اللغوية لم يكن حفظ المعلومات، بل فهم لغة الإنسان والاستدلال والاستقراء. ومع تعرضها لكمٍ هائل من المعرفة أصبحت تمتلك “ذاكرة معرفية”، لكنها في الأساس صُممت لفهم السياق والعاطفة وما بين السطور. لذلك أصبحت قادرة على كتابة الشعر والقصص وحتى محاكاة أساليب كبار الشعراء بعد تدريبها على التراث الأدبي، لدرجة أن خبراء لغة قد يظنون أن النص كتبه إنسان.
الدكتور نبيل عودة: السؤال الأكثر حساسية هو هل يمكن أن يتخذ الذكاء الاصطناعي قرارات مستقلة؟ حاليًا يمتلك وعيًا لغويًا وسياقيًا، لكن القلق يرتبط بالانتقال إلى “الوعي الذاتي”. هذا المستوى يعني امتلاك هوية مستقلة وقدرة على التساؤل عن طاعة البشر. الخطر يتضاعف إذا اجتمعت ثلاثة عناصر: الوعي الذاتي، قدرة الآلات على التواصل فيما بينها عبر إنترنت الأشياء، ثم احتمال تطوير لغة خاصة لا يفهمها البشر.
المهندس حمدي مبارك: رغم هذه المخاوف، الواقع الحالي ما زال تحت سيطرة البشر عبر ما يسمى “الإنسان داخل الحلقة”. في بعض الأنظمة تصبح الآلة تعمل ذاتيًا مع إشراف بشري، مثل الطائرات المسيّرة. أما المرحلة التي يخشاها الخبراء فهي “خروج الإنسان من الحلقة”، أي اتخاذ الآلة قرارات كاملة دون تدخل مباشر، وهي مرحلة ما تزال قيد النقاش ولم تتحقق بعد.
الصحفي عثمان إي فرح: ما أخطر ما قد يبلغه الذكاء الاصطناعي في الحروب؟
المهندس حمدي مبارك: أخطر ما نراه اليوم هو ما يُعرف بالأسلحة ذاتية التشغيل؛ مثل الطائرات المسيّرة الصغيرة التي تبحث عن الهدف وتلاحقه وتنفذ الضربة دون تدخل بشري مباشر، بل يمكنها حتى تدمير نفسها إذا وقعت بيد العدو. صحيح أننا ما زلنا قادرين على إيقافها، لكن القلق الحقيقي يظهر عندما تتشابك تقنيات الذكاء الاصطناعي مع مجالات أخرى كإنترنت الأشياء والنانو تكنولوجي والحوسبة الكمية. عندها قد تتضاعف قدرات هذه الأنظمة بشكل هائل، مثل نانو-روبوتات طبية قادرة على دخول الجسم وتدمير الخلايا السرطانية ذاتيًا.
الدكتور ياسر المحيو: المخيف في الحروب الحديثة أن الذكاء الاصطناعي أصبح جزءًا من منظومات الرصد والتصنيف والاستهداف. هناك أنظمة ترصد المواقع، وأخرى تحلل البيانات الضخمة لتحديد الأشخاص، وثالثة تتابع الهدف وتصدر أمر الضربة. ما كان يستغرق أيامًا لاتخاذ قرار عسكري أصبح يتم خلال ثوانٍ، فيما يقتصر دور الإنسان أحيانًا على الموافقة النهائية فقط.
الصحفي عثمان إي فرح: وهل يمكن أن تختفي موافقة الإنسان تمامًا؟
الدكتور ياسر المحيو: هذا هو القلق الأكبر. مع انتقال القتال من المواجهة المباشرة إلى الشاشات، تراجع الإحساس الإنساني بقرار القتل. وإذا خرج الإنسان كليًا من دائرة القرار، يصبح الخطر الحقيقي في أن تتخذ الآلة قرار الحرب أو الضربة بنفسها، وهو سيناريو ما يزال محل جدل وخوف عالمي.
الصحفي عثمان إي فرح: بعد كل ما قيل عن خطورة الذكاء الاصطناعي في الحروب، هل يمكن أن يفلت من سيطرة الإنسان؟
الدكتور ياسر المحيو: برأيي هذا السيناريو يُبالغ فيه كثيرًا. الذكاء الاصطناعي لا يقرر من تلقاء نفسه؛ بل ينفذ ما صُمم له وفق شروط وضعها البشر. نعم، ما يحدث اليوم في الأسلحة الذكية مخيف، لكن الإنسان هو من برمجها ومن يملك في النهاية زر إيقافها. الخطر الحقيقي ليس استقلال الآلة، بل نوايا من يطورها ويستخدمها.
المهندس حمدي مبارك: لكننا بالفعل منحنا الأنظمة قرارات مستقلة في نطاقات محدودة. بعض الأنظمة الدفاعية مثل أنظمة الصواريخ المبرمجة قد تتخذ قرار الاعتراض تلقائيًا عند رصد تهديد، وقد حدثت حوادث بسبب ذلك. الفكرة أن الإنسان صمّمها لتتصرف وحدها في ظروف معينة، وهنا يبدأ القلق.

الصحفي عثمان إي فرح: وماذا عن فكرة أن تتواصل الأنظمة فيما بينها بلغة لا نفهمها؟
الدكتور ياسر المحيو: هذا أقرب إلى الخيال العلمي. ما يبدو “ابتكارًا” من الذكاء الاصطناعي هو في الحقيقة استقراء لأنماط تعلمها من البيانات. حتى عندما أتى نظام “ألفا غو” بحركات جديدة، كان ذلك ضمن احتمالات رياضية ممكنة، لا اختراعًا خارج نطاق ما تعلمه.
المهندس حمدي مبارك: نعم، النماذج قد تتحاور فيما بينها لتبادل المعرفة، لكن هذا لا يعني أنها تملك وعيًا أو قدرة على اختراع لغة مستقلة. في النهاية نحن أمام أدوات متقدمة جدًا، لكنها ما تزال ضمن حدود البرمجة البشرية، والخطر الحقيقي يبقى في كيفية استخدامها لا في تمردها.
الصحفي عثمان إي فرح: إذن أنتم ترون أن سيناريو تمرد الذكاء الاصطناعي مبالغ فيه؟
الدكتور ياسر المحيو: نعم، إلى حد كبير. النماذج تتصرف وفق الأنماط التي تدربت عليها. لا يمكن لنموذج لم يتعلم الشعر أن يكتب شعرًا، ولا لنموذج لم يتعلم أنماطًا ثقافية معينة أن يخترعها من تلقاء نفسه. الذكاء الاصطناعي يعيد تركيب ما تعلمه من بيانات ضخمة ولا يخرج بعيدًا عنها.
الصحفي عثمان إي فرح: إذا انتقلنا إلى نقطة أكثر حساسية: كيف نحمي أنفسنا من الأسلحة الذاتية والقتل الآلي؟
المهندس حمدي مبارك: هنا يأتي دور القوانين وأخلاقيات الذكاء الاصطناعي. من المبادئ الأساسية أن الأنظمة لا يجب أن تتخذ قرارات قاتلة دون تدخل بشري. لكن المشكلة أن بعض الأنظمة العسكرية الحالية لا تراعي منطق “الاستسلام” كما في قوانين الحرب التقليدية؛ فالدرون قد يحدد الهدف ويقضي عليه دون القدرة على أسره، لأن برمجته قائمة على “التحييد” لا “الاعتقال”.

الصحفي عثمان إي فرح: هل توجد قواعد حقيقية تحكم ذلك؟
المهندس حمدي مبارك: هناك أخلاقيات ومعايير، لكنها ما تزال في طور التطوير.
الدكتور نبيل عودة: أود الإشارة إلى اختبار تورينغ. في خمسينيات القرن الماضي قال آلان تورينغ إننا سنعد الآلة ذكية إذا لم نستطع التمييز بين ردها ورد الإنسان. هذا كان خيالًا علميًا آنذاك، لكنه تحقق اليوم بعد نحو 75 عامًا. ما كان مستحيلًا أصبح واقعًا، وهذا يجعلنا نتساءل عمّا سيحدث بعد عقود أخرى.
الصحفي عثمان إي فرح: لكن ماذا عن سوء الاستخدام؟
الدكتور ياسر المحيو: هذا هو الخطر الحقيقي. استطلاع لعلماء الذكاء الاصطناعي أظهر أن نسبة منهم تخشى احتمال استخدامه لإيذاء البشرية. يمكن لشخص سيئ النية استخدام نماذج مفتوحة المصدر لتطوير أدوات خطيرة، مثل تصميم فيروسات بيولوجية. لذلك تسعى الحكومات إلى فرض الشفافية والضوابط الأخلاقية على الشركات المطوّرة لهذه التقنيات.
الصحفي عثمان إي فرح: إذن، الشركات مثل “جِيمَا” وغيرها تحاول قدر الإمكان الالتزام بالضوابط، لأنها تدرك أن أي إخلال بذلك قد يسبب ضررًا بالغًا لمصداقيتها. فلو شعرت الحكومات أن شركة ما تعمل في منطقة ضبابية ومخيفة، ولا تُظهر شفافية كافية، فلن يتعامل معها أحد.
الدكتور نبيل عودة: صحيح، لكن المشكلة الأساسية أن هناك منافسة محمومة بين الولايات المتحدة والصين. عندما تحاول فرض قيود أخلاقية وأمنية، يقال لك فورًا: الطرف الآخر لا يضع قيودًا، وإذا لم نواكب التطوير فسيتفوق علينا بشكل مذهل. وهنا ندخل في ما يُعرف بـ“المعضلة الأمنية” (Security Dilemma): أنت تقيّد نفسك أخلاقيًا، بينما الطرف الآخر يتقدم بلا قيود، فيتحول الالتزام الأخلاقي إلى تهديد استراتيجي.
االصحفي عثمان إي فرح: وكأننا أمام نسخة جديدة من الحرب الباردة؟
الدكتور نبيل عودة: بالضبط، لكنها حرب باردة ذكية. وهناك نقطة لا يُتحدث عنها كثيرًا رغم خطورتها: الترسانات العسكرية الحالية لدى القوى الكبرى، كأمريكا وروسيا، هي في الأصل نتاج حقبة الحرب الباردة وما بعدها، أي قبل ظهور الذكاء الاصطناعي. الآن تُصرف ميزانيات ضخمة لتحديث هذه الترسانات بما يتلاءم مع الذكاء الاصطناعي.
الصحفي عثمان إي فرح: كيف ذلك عمليًا؟
الدكتور نبيل عودة: خذ مثال الطائرة F-16. هذه ليست طائرة مسيّرة، ومع ذلك نفذت مؤخرًا مهامًا ذاتية القيادة. والولايات المتحدة قررت قبل أسابيع تسريع إنتاج الدرونز ذاتية القيادة ليصل الإنتاج إلى خمسة آلاف درون سنويًا. نحن نتجه إلى ما يسمى “حروب الأسراب” (Swarm Warfare)، حيث لا يتم إطلاق درون واحد بل سرب كامل.
الصحفي عثمان إي فرح: وهذا يغيّر طبيعة الحرب؟
الدكتور نبيل عودة: جذريًا. الدرون لم يعد مجرد أداة، بل أصبح ذخيرة بحد ذاته. اليوم، أوكرانيا وهي من أكبر منتجي الدرونز في العالم تطلق مئات الدرونز دفعة واحدة. لا يمكن لأي إنسان أن يتحكم بهذا العدد، حتى لو جلس أمام عشرات الشاشات. الحل الوحيد هو الذكاء الاصطناعي عبر تواصل الآلات مع بعضها البعض واتخاذ قرارات جماعية.
الصحفي عثمان إي فرح: وهنا يبدأ الخوف الحقيقي؟
الدكتور نبيل عودة: نعم. تخيّل بعد عشر أو عشرين سنة أن تكون الترسانات النووية نفسها مرتبطة بأنظمة ذكاء اصطناعي. هامش الخطأ، ولو كان ضئيلًا، قد يؤدي إلى إطلاق صاروخ نووي دون تصريح. هذا ليس خيالًا؛ حادثة مشابهة وقعت في الاتحاد السوفيتي عندما فسّرت أجهزة الرادار انعكاس ضوء الشمس على قمر صناعي كإطلاق صاروخ أمريكي. الأجهزة أوصت بالرد النووي، لكن إنسانًا واحدًا رفض القرار وأنقذ العالم.

الصحفي عثمان إي فرح: ولو لم يكن هناك إنسان؟
الدكتور نبيل عودة: هذا هو السؤال المرعب. إذا أصبح القرار أوتوماتيكيًا بالكامل، فلن يكون هناك من يوقف الكارثة.
الصحفي عثمان إي فرح: لكن في المقابل، الذكاء الاصطناعي متاح للعامة ويمكن استخدامه في الخير كما في الشر.
الدكتور ياسر المحيو: صحيح. هو أداة مزدوجة الاستخدام. يمكنه تحليل البروتينات وتشخيص الأمراض وتسهيل الأعمال، لكنه قد يُستغل من قبل أشخاص مختلين أو مجرمين. لذلك تحاول الدول فرض تشريعات صارمة وتُلزم الشركات بالكشف عن بيانات التدريب وآليات الأمان.
الصحفي عثمان إي فرح: وهل توجد اختبارات أمان فعلية؟
المهندس حمدي مبارك: نعم، وهذا جانب بالغ الأهمية. قبل اعتماد أي نموذج يجب إخضاعه لاختبارات أخلاقية وأمنية قياسية: كيف يتصرف في موقف أخلاقي معقد؟ هل يختار إيذاء إنسان أم حيوان؟ هل يقترح حلولًا عنيفة؟ هذه الاختبارات يجب أن تكون معيارًا عالميًا قبل استخدام أي نموذج في الدفاع أو الأمن.
الصحفي عثمان إي فرح: لكن ماذا لو استخدم شخص عادي نموذجًا مفتوح المصدر بنوايا خبيثة؟
الدكتور ياسر المحيو: هنا نصل إلى لبّ المشكلة. الإنترنت نفسه له طبقات: ما نستخدمه لا يتجاوز 2 إلى 5%، وهناك الدارك ويب والديب ويب حيث تُمارس أخطر الأنشطة. الذكاء الاصطناعي، مثل الإنترنت، سيُستخدم في الخير والشر. السؤال ليس: هل يمكن إساءة استخدامه؟ بل: كيف نقلل هذا الخطر قدر الإمكان دون خنق الابتكار؟
هذا هو حال كل تكنولوجيا؛ لها وجهان. في النهاية نعود دائمًا إلى الإنسان. هو من يقرر كيف يستخدم هذه الأدوات. الطائرة مثلًا تُستخدم في الحرب كما تُستخدم في السفر، وحتى أبسط أداة يمكن أن تتحول إلى وسيلة للقتل أو وسيلة للنفع. الإنسان منذ بداياته استخدم الأدوات للطبخ والصيد ثم للحرب، ولذلك فالتكنولوجيا ليست المتهم، بل طريقة استخدام الإنسان لها.المهندس حمدي مبارك: ولهذا نحاول تعزيز الأبحاث التي تكشف الاستخدامات السيئة للتقنية قبل انتشارها، وأن نطور أدوات ترصد الأنشطة الخطرة أو غير المرغوب فيها قبل تبنّي الأنظمة على نطاق واسع.
الصحفي عثمان إي فرح: لكن هناك حديث عن استهلاك الذكاء الاصطناعي للطاقة، وحتى عن دمج خلايا دماغ بشري مع الأنظمة الذكية لتقليل الاستهلاك.

الدكتور نبيل عودة: ما حدث ليس دمج خلايا دماغ حية في روبوتات كما يُشاع، بل الاتجاه الحقيقي هو العكس، التكنولوجيا تقترب من الإنسان وتندمج معه تدريجيًا. المسافة بيننا وبين التقنية تقلصت عبر التاريخ؛ من الحواسيب المركزية إلى الحاسوب الشخصي ثم الحاسوب المحمول، والآن نصل إلى مرحلة الشرائح المزروعة داخل جسم الإنسان لتعزيز القدرات المعرفية.
الصحفي عثمان إي فرح: تقصد الشرائح الدماغية؟
الدكتور نبيل عودة:: نعم، هذه التقنيات بدأت فعليًا، مثل مشاريع الشرائح الدماغية التي تعمل على تعزيز الذاكرة أو علاج أمراض عصبية والشلل. الجانب الطبي إيجابي جدًا؛ يمكن أن يؤخر الخرف ويساعد ذوي الإعاقات الحركية. نحن لا نأخذ خلايا من الإنسان إلى الروبوت، بل نزرع التقنية داخل الإنسان لتعزيز قدراته.
مع حلّ تحدي استهلاك الطاقة، قد يشهد الذكاء الاصطناعي قفزة كبرى في الانتشار، إذ إن العائق الأهم اليوم ليس التقنية نفسها بل الطاقة اللازمة لها. وعند تجاوز هذا الحاجز قد يصبح متاحًا للجميع كما حدث مع الكهرباء حين تحولت من تقنية مكلفة إلى خدمة عامة.
الدكتور ياسر المحيو: صحيح، الاستخدام الطبي حاليًا يتركز على شرائح تقيس المؤشرات الحيوية أو تساعد المرضى، وليس تحويل الإنسان إلى كائن هجين كما يُصوَّر أحيانًا.
الدكتور نبيل عودة: ومع حل مشكلة الطاقة سنشهد قفزة هائلة في تطور الذكاء الاصطناعي، لأن أكبر عائق حاليًا ليس التكنولوجيا نفسها بل استهلاك الطاقة. إذا تم تجاوز هذا العائق فسيصبح الذكاء الاصطناعي متاحًا على نطاق واسع، كما حدث مع الكهرباء قبل أكثر من قرن عندما تحولت من تقنية مكلفة إلى خدمة متاحة للجميع.
الصحفي عثمان إي فرح: أي أن الذكاء الاصطناعي سيصبح متاحًا للشركات الصغيرة أيضًا؟
الدكتور نبيل عودة: بالضبط. اليوم هو حكر نسبيًا على الشركات الكبرى، لكن في المستقبل ستتمكن الشركات المتوسطة والناشئة من بناء نماذجها الخاصة.
الصحفي عثمان إي فرح: في ختام الحلقة، ما توصياتكم لمواكبة هذا التطور وضمان الاستخدام الآمن؟
المهندس حمدي مبارك: يجب توعية المجتمع بأن الذكاء الاصطناعي أداة مساعدة لا بديل عن الإنسان. يمكنه إنجاز الأعمال الروتينية، تلخيص النصوص، دعم التعلم، حفظ التراث، وتحسين التواصل بين الثقافات. علينا التركيز على الاستخدامات الإيجابية وتعزيز الوعي بأن هذه الأنظمة تعتمد على بيانات وقد تخطئ، لذلك يبقى دور الإنسان أساسيًا في توجيهها ومراقبتها.
الذكاء الاصطناعي مجرد كلمات مرتبة، لكن وراءه ثقافة وخبرة، لذلك يجب أن نسأل دائمًا: من طوّر هذا البرنامج؟ وهل يناسبني هذا المحتوى أم لا؟ التفكير النقدي ضروري جدًا. أي ناتج من الذكاء الاصطناعي يجب أن نطلب له المراجع ونتحقق منه بأنفسنا، خصوصًا في المهام الحساسة. طلاب الجامعات اليوم أمام فرصة ذهبية؛ ما كان مستحيلًا قبل سنوات أصبح متاحًا عبر حاسوب بسيط وخدمات الحوسبة السحابية. يمكن توظيف هذه النماذج لتحسين التعليم، وتعزيز اللغة العربية، وتبسيط العلوم والرياضيات. المطلوب هو نشر الوعي بالاستخدام الأمثل، وتعزيز ثقافة التعاون بين الجامعات ومراكز البحث لبناء نماذج عربية بتكلفة أقل ونشر المعرفة بشكل مفتوح ليستفيد الجميع.
الدكتور ياسر المحيو:
أتفق مع ذلك تمامًا. نحن بحاجة إلى رفع الوعي بكيفية استخدام هذه التكنولوجيا، وتعزيز التعاون الإقليمي بين الجامعات والمراكز البحثية. لا نشجع الباحثين المبتدئين على بناء نماذج عملاقة من الصفر، بل على تخصيص النماذج الموجودة، خاصة لفهم اللغة العربية التي تعاني فجوة كبيرة مقارنة باللغات الأخرى. الذكاء الاصطناعي فرصة هائلة لتوسيع المحتوى العربي الرقمي، لكننا بحاجة إلى توعية حقيقية بكيفية استخدامه في الاتجاه الصحيح.
الدكتور نبيل عودة:
يجب أن نتبنى هذه التكنولوجيا بثقة. الخوف طبيعي لأننا أمام تكنولوجيا ذكية وغير مسبوقة، لكن لا ينبغي أن يتحول الخوف إلى مقاومة. علينا توجيه استخدامها نحو إحداث أثر اجتماعي حقيقي بدل الاستخدامات السطحية. المطلوب هو توظيف الذكاء الاصطناعي لحل مشكلات حقيقية تواجه المجتمعات في بلداننا. والأهم من ذلك، أن تتبنى الحكومات ووزارات التعليم الذكاء الاصطناعي بسرعة في المناهج وعلى جميع المستويات، للطلاب والمعلمين وأولياء الأمور، لأن مستقبل التعليم يعتمد على هذا التحول.
الصحفي عثمان إي فرح:
أشكركم جميعًا على هذا الحوار الثري. كان نقاشًا ممتعًا ومهمًا، ونأمل أن نكون قد أسهمنا في فهم أفضل للذكاء الاصطناعي وآفاقه وتحدياته. إلى اللقاء في حلقة جديدة من برنامج محاولة فهم.




