“الذكاء الاصطناعي” جنرال الحروب الجديدة

يستحوذ الذكاء الاصطناعي اليوم على تركيز قادة “وادي السيليكون” حتى أصبح معتاداً أن يحضر اختصار الكلمتين “أي آي” في أي اجتماع استشرافي، فالشركات لم تعد تنظر إلى الذكاء الاصطناعي كوسيلة لتعظيم الأرباح وحسب، بل طوق نجاة في بحر من المتغيرات الخاطفة.

تقترب شركة “إنفيديا” المتخصصة في معالجة الرسومات وشرائح الكومبيوتر من أن تكون أول شركة رقائق تدخل نادي الشركات التي تتجاوز قيمتها السوقية تريليون دولار، بعد زيادة بأكثر من 600 مليار دولار في قيمتها هذا العام.

كلمة السر لهذا التضخم المذهل لشركة تصمم ولا تصنع هو الذكاء الاصطناعي الذي وظفته الشركة في ابتكاراتها ومنتجاتها التي أصبحت تتصدر الأسواق.

لكن الذكاء الاصطناعي لم يضع بصمته في الدفاتر المالية للشركات وحسب، بل وصل إلى سباق التسلح والتنافس بين القوى العظمى.

يقول هنري كيسنجر إن مصير البشرية يعتمد على قدرة أميركا والصين على التعايش، إلا أن التحدي أمام تعايشهما بحسب الدبلوماسي الذي احتفل قبل أيام بدخول قرنه الثاني، هو المنافسة الشديدة التي يزيدها الذكاء الاصطناعي حدة.

في كتاب نشر هذا العام بعنوان “الذكاء الاصطناعي والقنبلة”، يتخيل جيمس جونسون من جامعة أبردين حرباً نووية من طريق الخطأ في بحر الصين الشرقي عام 2025، عجلت باندلاعها معلومات استخباراتية مبنية على الذكاء الاصطناعي لدى الجانبين، وتقودها روبوتات مدعومة بالذكاء الاصطناعي والتزييف العميق وعمليات التمويه.

ليست الكتب وحدها التي بدأت تستحضر أخطار الذكاء الاصطناعي، فحتى النقاشات الأقل رسمية في الدوائر الأكاديمية تضج بتطورات الذكاء الاصطناعي وكيف سيغير عالمنا، ودوره الممكن في كبح العقل البشري وتعطيل التفكير والإبداع.

يطرح أكاديمي هذه الهموم والأسئلة فيجيب تلميذ عليها مستخدماً قدرات “شات جي بي تي”، والإجابة هذه المرة ماثلة في سلوك التلميذ لا في ما يقوله.

إيلون ماسك الذي يعتبر من المساهمين في تأسيس شركة “أوبين أي آي” التي تقود ثورة الروبوت التوليدي حذّر أخيراً من أن يسهم الذكاء الاصطناعي في صنع أسلحة أكثر فتكاً مما نرى الآن، وهو ما دفعه إلى جانب أكثر من 1000 قائد وباحث ومهتم بالمجال إلى المطالبة في رسالة مفتوحة في مارس (آذار) الماضي بوقف تطوير أنظمة ذكاء اصطناعي أكثر قوة من “شات جي بي تي” لمدة ستة أشهر لحين إيجاد إطار تنظيمي واضح يحد من أخطارها على البشرية، وفي عالم تلازمه الحروب لا يضر أخذ هذه التحذيرات على محمل الجد.

التقدم العسكري

في أكتوبر (تشرين الأول) الماضي أعلن الرئيس الأميركي جو بايدن قيوداً صارمة على بيع الرقائق أو أشباه الموصلات للصين بهدف تشجيع الصناعات الأميركية لاستعادة قدرتها التنافسية، وكان القرار مريحاً أيضاً للـ “بنتاغون” ومجلس الأمن القومي الذي يسعى إلى كبح التسلح الصيني والمحافظة على التفوق العسكري الأميركي، من خلال منع الجيش الصيني من الحصول على الرقائق المستخدمة في تطوير الأسلحة المدعومة بالذكاء الاصطناعي.

وعلى رغم إيمان مجتمع الأمن القومي بقدرة التكنولوجيا الجديدة على إحداث ثورة في الحروب والصراعات السيبرانية وأخطار توظيفها في عملية اتخاذ القرار باستخدام الأسلحة النووية، إلا أن مسؤولي الـ “بنتاغون” يعتبرون تعليق تطوير الذكاء الاصطناعي لمدة ستة أشهر فكرة سيئة، لأن الصينيين والروس لن يتوقفوا. ويقول كبير مسؤولي المعلومات في وزارة الدفاع الأميركية جون شيرمان “إذا توقفنا فاحزر من الذي لن يتوقف، أعداؤنا المحتملون في الخارج”.

أخطار ولا قيود

في الوقت الذي تنعدم فيه القواعد المنظمة للذكاء الاصطناعي يخشى الخبراء من أن تسهل تقنيات الذكاء الاصطناعي، ومنها “شات جي بي تي”، للأشرار شن الهجمات الإلكترونية بفاعلية أكبر ونشر المعلومات المضللة والوصول إلى تقنيات مدمرة، كما يحذر الخبراء من أن يسرع الذكاء الاصطناعي المواجهة بين القوى العظمى ويقضي على المساعي السابقة التي بذلها عدد من قادة الدول لإبطاء عملية صنع القرار النووي بهدف تقليل فرص اندلاع الصراع، والجيد أن هذه القوى حذرة على الدوام من شن هجوم نووي لأنها تعرف أنها ستقابل بالمثل، ومع ذلك يهدد الذكاء الاصطناعي اليوم بدفع البلدان نحو تسريع عملية اتخاذ القرار النووي.

وتأتي أكبر الأخطار من المجموعات الفردية والمنظمات الإرهابية ومجموعات برامج الفدية والدول الصغيرة ذات المهارات الإلكترونية المتقدمة مثل كوريا الشمالية التي تتعلم كيفية استنساخ نسخة أصغر وأقل تقييداً من ” شات جي بي تي”، وعلى رغم أن جهود الحماية الحالية تمنع “شات جي بي تي” من الإجابة عن أسئلة حول كيفية إيذاء شخص ما أو تفجير سد أو تعطيل أجهزة الطرد المركزي النووية، إلا أن تلك الجهود لا تخلو من ثغرات يمكن أن يستغلها المستخدمون، ومنهم من تمكن من خداع روبوت المحادثة لإعطاء معلومات حول كيفية صناعة قنبلة.

وتذكر صحيفة “نيويورك تايمز” أن وضع مثل هذه الإجراءات في قائمة سوداء لن يؤدي إلى وقف إساءة استخدام أنظمة الذكاء الاصطناعي، فهناك دائماً طريقة لاختراق حدود الأمان والحماية، كما وجد سائقو المركبات حيلة لوقف أصوات التنبيه التي تذكر بلبس حزام الأمان.

الأسلحة المستقلة

على رغم أن “شات جي بي تي” أثار موضوع تعزيز التسلح باستخدام الذكاء الاصطناعي إلا أنه ليس جديداً على وزارة الدفاع الأميركية التي نشرت القواعد لتطوير الأسلحة المستقلة قبل عقد، وأنشأ مركز الذكاء الاصطناعي المشترك قبل خمس أعوام من جهود استكشاف استخدامات الذكاء الاصطناعي في المعارك.

وتملك واشنطن أسلحة قادرة على إطلاق النار من دون تدخل بشري، وتتطلب تدخلاً من الأفراد في حال الاضطرار إلى إيقاف الهجوم. كما تتمتع “أنظمة باتريوت” الأميركية بميزة اتخاذ القرار تلقائياً لإسقاط الصواريخ أو الطائرات التي تخترق المجالات الجوية المحمية.

ومن الشواهد اللافتة على الاستخدامات العسكرية للذكاء الاصطناعي عملية اغتيال العالم النووي الإيراني محسن فخري زاده التي نفذها الـ “موساد” الإسرائيلي باستخدام مدفع رشاش تم التحكم فيه من بعد بمساعدة الذكاء الاصطناعي.

وكشفت روسيا أخيراً عن بدء تصنيع طوربيد قادر على السفر عبر المحيط بشكل مستقل والهرب من الدفاعات الصاروخية الحالية وإيصال سلاح نووي بعد أيام من إطلاقه، وعلى رغم التطور المطرد في صناعة الأسلحة المستقلة فإنه لا توجد معاهدات أو اتفاقات دولية تتعامل معها، ولا يبدو أن العالم سيشهد توقيع هذه الضمانات في ضوء التخلي المتسارع عن اتفاقات الحد من الأسلحة.

وتقر المسؤولة السابقة في وزارة الخارجية آنيا مانويل بعدم استعداد الصين وروسيا لخوض محادثات للحد من توظيف الذكاء الاصطناعي في سباق التسلح، ومع ذلك تقول إن الاجتماعات حول هذا الموضوع ربما تفتح على الأقل باب النقاش.

لكن واشنطن نفسها ليست في موقف مثالي لإقناع الدول الأخرى بالعدول عن جهود التسلح المدعومة بالتكنولوجيا، فالقوات الجوية الأميركية تقود على سبيل برنامجاً سرياً يهدف إلى تحقيق “الهيمنة الجوية” تخبر فيه حوالى 1000 طائرة من دون طيار، يطلق عليها الطائرات المقاتلات التعاونية، وتعمل جنباً إلى جنب 200 طائرة موجهة، وفق مجلة “فورين بوليسي”.

وتختبر وزارة الدفاع الأميركية استخدام الذكاء الاصطناعي لدمج عملية صنع القرار بين فروع الخدمة والأوامر العسكرية، ومن المرجح أن تزداد وتيرة هذه الجهود في أعقاب منع إدارة بايدن تصدير التقنيات المتقدمة إلى الصين، ومنها الرقائق، حفاظاً على الريادة الأميركية في مجال الذكاء الاصطناعي.

ويقول كبير المستشارين في مبادرة التهديد النووي دوغلاس شو، “يمكنني بسهولة أن أتخيل مستقبلاً يفوق فيه عدد الطائرات من دون طيار عدد أفراد القوات المسلحة”. ويرى الجنرال المتقاعد من القوات الجوية الأميركية تشارلز والد أن هذا التحول سيعزز القوة العسكرية وسيحل واحدة من أكبر المشكلات التي تعانيها بلاده وهي التوظيف.

ومن هذا المنطلق يمكن أن تجعل هذه التكنولوجيا الحرب أقل فتكاً وتعزز الردع، إذ يمكن تقليل الخسائر البشرية من خلال توسيع دور الطائرات من دون طيار الموجهة للذكاء الاصطناعي بشكل كبير في القوات الجوية والبحرية والبرية. وتعكف وزارة الدفاع الأميركية حالياً على اختبار روبوتات الذكاء الاصطناعي التي يمكنها قيادة مقاتلات معدلة من طراز F-16، كما تختبر روسيا مركبات ذاتية القيادة تشبه الدبابات.

تسريع القرار

ومع ذلك تضع واشنطن حدوداً أمام إدخال الذكاء الاصطناعي في هياكلها العسكرية، ومنها القيادة النووية، ففي خطاب عام 2019، أكد المدير السابق لمركز الذكاء الاصطناعي المشترك في الـ “بنتاغون” الجنرال جاك شاناهان رغبته في استخدام الذكاء الاصطناعي في الأنظمة العسكرية للتفوق على الخصوم وإنقاذ الأرواح والمساعدة في ردع الحرب، لكنه أشار في الوقت نفسه إلى أنه لا يتخيل توظيف الذكاء الاصطناعي في أنظمة الأسلحة الفتاكة وأن يكون له دور في عملية اتخاذ القرار باستخدام القوة المميتة.

ويزيد “شات جي بي تي” وأمثاله الوضع تعقيداً وخطورة، فالأنظمة العسكرية المدعومة بالذكاء الاصطناعي تقلص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام مما يخلق أخطاراً جديدة، كالضربات غير المقصودة أو القرارات الخاطئة المتخذة بناء على تنبيهات مضللة أو كاذبة، ويحذر هربرت لين من جامعة “ستانفورد” من أن الخطر يكمن في أن صانعي القرار يمكن أن يعتمدوا تدريجياً على تقنيات الذكاء الاصطناعي كجزء من القيادة والسيطرة على الأسلحة لسرعتها التي تفوق إمكانات البشر.

تقييم الأخطار

في تقرير نشر أوائل فبراير (شباط) الماضي، قالت “رابطة الحد من التسلح” إن الذكاء الاصطناعي وغيره من التقنيات الجديدة مثل الصواريخ التي تفوق سرعة الصوت، يمكن أن تصعب التمييز بين الهجمات التقليدية والنووية، وذكر التقرير أن الاستخدام العسكري للتقنيات الناشئة تزايد بوتيرة أسرع من الجهود المبذولة لتقييم الأخطار التي تشكلها وتقييد استخدامها، داعية إلى إبطاء وتيرة تسليح هذه التقنيات وموازنة الأخطار بعناية”.

وبدأت واشنطن أخذ عواقب الذكاء الاصطناعي المحتملة بعين الاعتبار، إذ حدّثت وزارة الدفاع في يناير (كانون الثاني) الماضي توجيهاتها في شأن أنظمة الأسلحة التي تنطوي على استخدام الذكاء الاصطناعي، قائلة إنه يجب إدخال الحكم البشري في عملية تطوير ونشر الأسلحة المستقلة.

من جانبه، يقول رئيس مجلس إدارة “غوغل” السابق وأول رئيس لمجلس “ابتكار الدفاع” في الـ “بنتاغون” بين عامي 2016 و 2020 إريك شميدت، إن “هناك جهوداً داخل الصناعة للتنظيم الذاتي”، مشيراً إلى محادثات غير رسمية عن طبيعة القواعد المنظمة للذكاء الاصطناعي.

وحتى لو نجحت واشنطن في تقييد استخدامات الذكاء الاصطناعي في الداخل فإن التحدي الأكبر أمام هذه الجهود هو ما إذا كان الصينيون والروس وغيرهم سيتقيدون بالقواعد التي تتبعها واشنطن.

والصين مثل أميركا تدرك محورية الذكاء الاصطناعي، وتقود تحركات متسارعة لاستغلاله عسكرياً وصناعياً، أما روسيا فيقول رئيسها فلاديمير بوتين إن من يملك الريادة في مجال الذكاء الاصطناعي سيكون “حاكم العالم”، وهو تصريح يكشف الإدراك المشترك لأهمية الذكاء الاصطناعي، لكن السؤال الملحّ هل يستشعر الجميع أخطاره؟

اندبندنت

مقالات ذات صلة