مما لا شك فيه أن الذكاء الاصطناعي يُحدث تغييرات جوهرية في عالمنا المعاصر، بما في ذلك المجال العسكري، فهو يخلق فرصاً غير مسبوقة لتعزيز القدرات البشرية، لا سيما فيما يتعلق بصنع القرار. ولكنه في ذات الوقت يثير مخاوف قانونية وأمنية وأخلاقية كبيرة على عدة أصعدة، مثل عدم السيطرة الكاملة للعنصر البشري، الشفافية والموثوقية والمساءلة والتحيز. وبالطبع في المجال العسكري عالي الخطورة والتأثير تتعاظم هذه المخاوف. وفي هذا السياق، استضافت الحكومة الهولندية «وزارتا الشؤون الخارجية والدفاع»، في 15 و16 فبراير الماضي، القمة العالمية الأولى حول الذكاء الاصطناعي المسؤول في المجال العسكري REAIM 2023 وذلك بهدف أن يمثل المؤتمر منصة لجميع أصحاب المصلحة والمهتمين لمناقشة الفرص والتحديات والمخاطر الرئيسية المرتبطة بتطبيقات الذكاء الصناعي في المجال العسكري.
شاركت جمهورية كوريا الجنوبية في تنظيم المؤتمر الذي عَقَدَ هذه الدورة في لاهاي «هولندا»، على أن تُعقد دورته القادمة في كوريا الجنوبية. هذا وتعتبر كل من هولندا وكوريا الجنوبية من البلدان الرائدة في المساهمة بنشاط في الحوار حول الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري.
وكان من بين المشاركين في القمة وزراء خارجية ومندوبون حكوميون آخرون، بالإضافة إلى ممثلين عن مؤسسات المعرفة ومراكز الفكر والصناعة ومنظمات المجتمع المدني. كما حضر القمة أكثر من 2000 مشارك «من شركات ومنظمات المجتمع المدني والأوساط الأكاديمية ومراكز الفكر والدراسات» من 100 دولة، مع 80 ممثلاً حكومياً. ومن أبرز فعاليات القمة عقد 4 جلسات رفيعة المستوى، و35 مائدة مستديرة، و20 عرضاً لتطبيقات الذكاء الاصطناعي في المجالات العسكرية، إضافة إلى منتدى أكاديمي، وبرامج حوارية، وورشة عمل لعرض الأفكار الابتكارية، وورشة عمل للطلاب والباحثين الجدد، وذلك من أجل تحقيق هدف واحد وهو تنسيق الجهود لاستخدام مسؤول للذكاء الاصطناعي في المجال العسكري.
بعد أن عرضنا باقتضاب سياق القمة الدولية الأولى حول الذكاء الاصطناعي المسؤول في المجال العسكري، تهدف تلك الدراسة المكثفة في سطورها القادمة أولاً لعرض أهم أهداف القمة، وأهم ما تناولته وأهم مخرجاتها.
1 . الأهداف الرئيسية وآليات تحقيقها
يستمر تطوير ونشر واستخدام الذكاء الاصطناعي في المجال المدني بلا هوادة، وبالتالي فإن نطاق التطبيق العسكري سيزداد خلال السنوات القادمة. في هذا السياق تتمحور الأسئلة المركزية التي تواجه المجتمع الدولي الآن حول حتمية وكيفية التعامل مع التطبيق العسكري للذكاء الاصطناعي بمسؤولية، فيما يتصل بشأن استخدام القوة وحماية المدنيين، ومن أجل ذلك دعا القائمون على المؤتمر، ما يربو على 100 من الأكاديميين المتخصصين وذوي الخبرة العملية من ذوي السمعة العالمية للإجابة عن الأسئلة التالية: ما مدى موثوقية النتائج التي تنتجها الخوارزمية؟ كيف نحسن التفاعل بين الإنسان والآلة؟ كيف نضمن أن يظل الذكاء الاصطناعي أداة تخدم البشر، وأنه يخضع دائماً للحكم البشري، بما في ذلك في حالات الصراع؟
وتمثل الإجابة عن تلك الأسئلة أهم المعضلات التي تتطلب مناقشة دولية متوازنة. وقد تم بالفعل تناول بعضها في فعاليات عالمية سابقة من قِبَل جهات فاعلة في هذا المجال، مثل فريق الخبراء الحكوميين المعني بالتكنولوجيات الناشئة في مجال منظومات الأسلحة الفتاكة ذاتية التشغيل، التي ناقشت مدى انطباق القانون الدولي على أنظمة الأسلحة المستقلة ودور التحكم البشري.
وكان من بين أهم أهداف القمة الدولية الأولى حول الذكاء الاصطناعي المسؤول في المجال العسكري ما يلي:
وضع موضوع الذكاء الاصطناعي المسؤول في المجال العسكري على رأس جدول الأعمال السياسي في العالم.
تفعيل دور مجموعة واسعة من أصحاب المصلحة والمهتمين للمساهمة في الخطوات التالية الملموسة لتحقيق الهدف الأول.
تعزيز وزيادة المعرفة المتصلة بموضوع الذكاء الاصطناعي المسؤول في المجال العسكري، وذلك من خلال تبادل الخبرات وأفضل الممارسات والحلول.
محاور القمة
تحليل خصائص الذكاء الاصطناعي، وذلك بمناقشة ما الذي نحتاج إلى معرفته حول الجوانب التقنية للذكاء الاصطناعي لفهم كيف يمكن تطبيقه بشكل مسؤول في سياق عسكري.
دراسة سبل نشر والاستخدام المسؤول للذكاء الاصطناعي، وذلك بمناقشة ماذا تعني التطبيقات العسكرية للذكاء الاصطناعي عملياً؟ وما هي الفوائد الرئيسية ونقاط الضعف؟
التنظير لأطر حوكمة الاستخدام المسؤول للذكاء الاصطناعي، وذلك بدراسة الأطر الموجودة لضمان تطبيق الذكاء الاصطناعي بشكل مسؤول في المجال العسكري والسعي بعد ذلك لتعزيزها بأطر إضافية، يمكن أن تعزز مسؤولية استخدام الذكاء الاصطناعي المسؤول في المجال العسكري، وتمكن أصحاب المصلحة والاهتمام من المساهمة في ذلك.
2 . أهم الفعاليات وما تناولته القمة
كلمات رئيسية: وكان من بين الكلمات الرئيسية في المؤتمر كلمة السيدة Marietje Schaake مديرة السياسة الدولية في مركز السياسة السيبرانية بجامعة ستانفورد، والتي أكدت من خلالها أنه بالرغم من وجود محاولات لمعالجة وتخفيف تحديات حقوق الإنسان وغيرها من القضايا الناشئة عن استخدام الذكاء الاصطناعي وتقنيات صنع القرار المؤتمتة في كل من القطاعين العام والخاص، فإنه توجد ثغرات كبيرة في استخدام الذكاء الاصطناعي لأغراض الأمن القومي والأغراض العسكرية، بما في ذلك في مجال أنظمة الأسلحة المستقلة.
ورش عمل: وكان من أهمها ورشة حول الفرص التي يتيحها الذكاء الاصطناعي، بالإضافة إلى التحديات التي يطرحها في مجال تحقيق الاستقرار في مناطق الصراع، وذلك من خلال نهج متعدد التخصصات لتحديد المخاطر وكيفية التعامل معها.
نماذج محاكاة: «يوم في حياة أحد مستخدمي الذكاء الاصطناعي في المجال العسكري» تُظهر التحديات عندما نريد ترجمة مبادئ الاستخدام المسؤول في المجال العسكري إلى واقع عملي، أسئلة مثل: «هل نفضل نظاماً مفتوحاً وشفافاً على نظام خاص وآمن؟» يجب تجربتها على أرض الواقع. يسمح نموج المحاكاة التفاعلي، بخوض سيناريو عسكري واقعي باستخدام الذكاء الاصطناعي. وفي كل مرة يتم اتخاذ قرار، سيكون أمام «الجمهور» خيار صعب. وستُحَدِّد اختياراته كيفية تطور أحداث القصة من خلال نموذج المحاكاة.
استطلاعات رأي: ومن أهمها قيام المؤتمر، كجزء من استطلاعات الرأي السنوية لحلف الناتو، باستطلاع رأي لقياس مقدار ما يعرفه الناس العاديون عن الذكاء الاصطناعي وتطبيقاته العسكرية، وكيف يرون استخدام الذكاء الصناعي والأسلحة الآلية وذاتية التشغيل، هل هي خطر على البشر أم أنها تساعد الجندي البشري في المواقف المعقدة وتحد من الخسائر؟
جلسات حوارية
جلسة حول التحديات المشتركة المدنية والعسكرية في تنظيم الذكاء الاصطناعي.
ناقشت الجلسة التحديات المشتركة لتنظيم استخدام الذكاء الاصطناعي في المجالين المدني والعسكري، والتدابير التي يمكن أن يتخذها صانعو السياسات لضمان حماية حقوق الإنسان والقانون الإنساني الدولي، لضمان وجود المساءلة في المجالات الرئيسية التي يتم فيها استخدام تقنيات الذكاء الاصطناعي وصنع القرار الآلي، بما في ذلك في مجالات الأمن القومي والدفاع.
جلسة حول العمل الجماعي الجدير بالثقة بين الإنسان والآلة: المرحلة التالية من التطور
ناقشت تلك الجلسة كيفية التعاون الناجح بين البشر والذكاء الاصطناعي في السياقات العسكرية، بما في ذلك الاستطلاع الآمن وحماية المحيط.
جلسة حول معالجة التحديات الأخلاقية والتقنية لأنظمة الأسلحة المستقلة AWS
كشفت الجلسة أكثر من 60 تحدياً أخلاقياً وتقنياً في تطوير واستخدام وإدارة أنظمة الأسلحة المستقلة. وناقشت كيفية التعامل مع تلك التحديات الأخلاقية والتقنية، بهدف تحديد ما يمكن أن يحدث بشكل صحيح أو خطأ في كل مرحلة من مراحل دورة حياة تلك الأسلحة، وكيف يؤثر صنع القرار البشري في كل مرحلة على نتائج استخدامها.
جلسة للإجابة عن السؤال التالي: هل نستخدم الذكاء الاصطناعي أم لا ؟ واستهدفت دحض الأفكار الشائعة حول الذكاء الاصطناعي العسكري.
ونظم تلك الجلسة التفاعلية Chatham House لإعادة التفكير في بعض الأفكار الشائعة التي قد تؤدي إلى قرارات يحتمل أن تكون غير فعالة أو حتى ضارة فيما يتعلق باستخدام الذكاء الصناعي وإدارته.
جلسة حول الذكاء الاصطناعي لتقليل الضرر الذي يلحق بالمدنيين وتخفيف آثار الحرب
ناقشت الجلسة كيفية استخدام الذكاء الصناعي لتقليل الضرر اللاحق بالمدنيين وتخفيف آثار الحرب. ومناقشة ما إذا كانت فوائد الذكاء الاصطناعي على المدنيين تفوق مخاطره.
جلسة حول إطار ذكاء اصطناعي مناسب للمجال العسكري؛ التطوير والتقييم النقدي
ناقشت الجلسة أهم مخاطر استخدام الذكاء الصناعي بما في ذلك انتهاكات الخصوصية، وتضمين التحيز، وإساءة الاستخدام المحتملة، والعواقب غير المقصودة. واقترحت نهجاً محدداً للتحكم البشري الهادف يمكن أن يساهم في تطوير استخدام مسؤول للذكاء الصناعي في المجال العسكري.
جلسة حول ربط الذكاء الاصطناعي بالأمن: تهديدات الذكاء الاصطناعي والتدابير والضمانات
ناقشت الجلسة بعض الإجراءات المضادة لهجمات الذكاء الاصطناعي العدائية، ونتج عن تلك الجلسة كتيباً حول هذا الموضوع، جمع بين خبراء في الذكاء الاصطناعي وخبراء في الأمن السيبراني.
جلسة حول عصر الذكاء الاصطناعي – الابتكار المسؤول للذكاء الاصطناعي العسكري
يتطلب تطوير أنظمة الذكاء الاصطناعي تعاوناً وثيقاً بين المستخدم النهائي والمؤسسات الصناعية والتكنولوجية والتجارية ومراكز الفكر والدراسات المعرفية. ناقشت الجلسة أفضل الخبرات والممارسات المتعلقة بالذكاء الاصطناعي المسؤول.
جلسة حول استخدام الذكاء الاصطناعي في الابتكار في مجالات التصنيع العسكري
تستكشف كيف يمكن للذكاء الاصطناعي أن يشكل ويؤثر على الجيوش ذات الأهمية الاستراتيجية في العالم.
جلسة حول تطوير ونشر الذكاء الاصطناعي المسؤول في بيئة عسكرية متعددة الجنسيات
ناقشت الجلسة كيفية تطبيق مبادئ الناتو للاستخدام المسؤول للذكاء الصناعي في المجال العسكري
وذلك من خلال الأدوات التالية:
- تحليل اتجاهات الذكاء الصناعي من خلال نظرة ثاقبة لأبحاث التكنولوجيا المدنية في عدد من المجالات، تغذيها عدة ملايين من الأوراق الأكاديمية.
- تحليل المعايير من خلال مقارنة أكثر من 244000 معيار عسكري وتجاري لإعطاء إرشادات بشأن المعايير المعمول بها.
- تقييم المرونة في مجال استخدام الذكاء الصناعي في المجال العسكري وذلك باستخدام العديد من مصادر البيانات المفتوحة وغير المفتوحة المتباينة لتقديم مدى المرونة لكل مجال من المجالات الأساسية السبعة لحلف الناتو.
جلسة حول مدى التزام الدول بحماية الأمن السيبراني لأسلحتها ذاتية التشغيل
حاولت تلك الجلسة الإجابة عن السؤال التالي: هل الدول ملزمة بحماية الأمن السيبراني لأسلحتها وحماية المدنيين من إساءة استخدام تلك الأسلحة؟
جلسة حول الذكاء الاصطناعي ثورة في الشؤون العسكرية؟
خصصت الجلسة للإجابة عن السؤال التالي: هل يمكن للذكاء الاصطناعي أن يخلق ثورة جديدة في الشؤون العسكرية؟ ما هو تأثير هذه التكنولوجيا على الاستقرار الاستراتيجي وآليات الحد من التسلح الحالية؟
جلسة حول الدروس المدنية للجيوش الأولى للاستخدام المسؤول للذكاء الاصطناعي
سلطت الجلسة الضوء على أوجه التشابه بين المبادرات المدنية في العالم التي تهدف لتعزيز فوائد استخدام الذكاء الصناعي وتقليل مخاطره.
جلسة حول أنظمة دعم القرار والتفاعل بين الإنسان والآلة
قدمت الجلسة رؤى متعددة حول كيفية تصميم وتنظيم التفاعل الفعال بين الإنسان والآلة (HMI) في سياق أنظمة دعم القرار العسكري.
جلسة حول كيفية الوصول لنهج عملي للذكاء الاصطناعي المسؤول
ناقشت تلك الجلسة أفضل وأسوأ ممارسات استخدام الذكاء الاصطناعي.
جلسة حول كيفية إدماج منظومة القيم في تصنيع واستخدام الأسلحة المعززة بالذكاء الصناعي
بالنظر إلى طبيعة المجال العسكري، لا يزال من الصعب تفعيل القيم والمبادئ في مجال التصنيع العسكري. تستهدف تلك الجلسة الإجابة عن السؤال التالي: كيف نضمن ونقيم أن التكنولوجيا العسكرية مصممة وستستخدم بشكل مسؤول؟
جلسة حول تحديات الطائرات بدون طيار
سيكون لدخول أسراب الطائرات بدون طيار التي تعمل بالذكاء الاصطناعي ساحة المعارك والحروب آثار تكتيكية وتشغيلية واستراتيجية واعدة بتغييرات واسعة وعميقة في سير الأعمال العسكرية. استعرضت تلك الجلسة النقاشية التفاعلية هذه التأثيرات على الأصعدة الجيوسياسية والقانونية والأخلاقية.
جلسة حول عدم مسؤولية النقاش المختزل لاستخدام الذكاء الاصطناعي في المجال العسكري
نظرت الجلسة إلى أن تقنيات الذكاء الاصطناعي يجب أن تحتل نطاقاً أوسع بكثير مما توحي به النقاشات السائدة الحالية حول أخلاقيات الذكاء الاصطناعي العسكري (مع التركيز السائد على أنظمة الأسلحة الفتاكة ذاتية التشغيل). بالإضافة إلى ذلك، أكد المشاركون في الجلسة أنه ينبغي ألا يقتصر أيضاً النقاش على مخاطر الذكاء الاصطناعي العسكري، بل ينبغي أيضا ًمناقشة الفرص التي يقدمها.
منتدى أكاديمي:
العلماء والخبراء من مختلف التخصصات لمناقشة المعضلات القانونية والأخلاقية والفلسفية والتقنية ذات الصلة والفرص في مجال التطوير المسؤول واستخدام الذكاء الاصطناعي العسكري.
استهدف المنتدى إقامة حوار بين الأكاديميين والعسكريين ومتخذي القرار السياسي حول:
- كيفية توسيع نطاق استخدام الذكاء الاصطناعي المسؤول لدى الحكومات والجيوش.
- الذكاء الاصطناعي الهجين لأنظمة آمنة ذاتية التشغيل.
- كيفية جعل الذكاء الاصطناعي مستشاراً موثوقاً به في القرارات العسكرية.
- كيفية التوصل لإطار عمل استراتيجي سياسي وتقني جديد لتطوير قدرات الدفاع الرقمي.
- كيفية تطوير خوارزميات موثوقة للروبوتات العسكرية في البيئات المعقدة Avalor AI.
أهم مخرجات القمة
شدد المشاركون في القمة على الحاجة إلى وضع الاستخدام المسؤول للذكاء الاصطناعي على رأس جدول الأعمال السياسي للحكومات وللمنظمات الدولية وزيادة تعزيز المبادرات التي تقدم مساهمة في هذا الصدد. ومن أجل ذلك أنشأ المؤتمر لجنة دائمة عالمية للذكاء الاصطناعي لرفع مستوى الوعي الشامل، وتوضيح كيفية الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري، وتحديد كيفية تطوير هذه التكنولوجيا وتصنيعها ونشرها بشكل مسؤول، ولتحديد شروط الحوكمة الفعالة للذكاء الاصطناعي في المجال العسكري.
تطوير جدول أعمال دولي مشترك
يضمن الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري، ضمن محددات القانون الدولي الحالي .وذلك بهدف:
- مساعدة الدول في اتخاذ الخطوات الضرورية فيما يتعلق بتطبيق الذكاء الاصطناعي المسؤول في المجال العسكري.
- إبرام الاتفاقات ليس فقط بين البلدان ولكن أيضاً مع الجهات الفاعلة الأخرى ذات الصلة.
- التنسيق بين الهياكل التشاورية المختلفة القائمة، بما في ذلك هياكل الأمم المتحدة والمنظمات الإقليمية المختلفة.
- ضمان حوار بنّاء من خلال تبادل المعرفة والخبرة.
- التعاون مع مؤسسات المعرفة ومنظمات المجتمع المدني والقطاع الخاص وكذلك الجهات الفاعلة السياسية.
- تحديث جدول الأعمال كل فترة من خلال المستجدات والدراسات الجديدة في المجال.
في هذا السياق أضاف وزير الشؤون الخارجية Wopke Hoekstra لعمل اللجنة التوصل لإبرام اتفاقيات دولية في هذا المجال، وأن هولندا ستظل القوة الدافعة وراء الجهود المبذولة.
ومن جانبها أكدت وزيرة الدفاع الهولندية Kajsa Ollongren أن الذكاء الاصطناعي ذو أهمية حاسمة للقوات المسلحة في المستقبل. وعددت ما يستطيع الذكاء الصناعي عمله للجيوش:
1 . سيجعل العمليات العسكرية التشغيلية واللوجستية أبسط وأكثر كفاءة.
2 . سيمكّننا من اتخاذ قرارات أسرع وأكثر استنارة. وبهذه الطريقة لا نحمي قواتنا فحسب، بل يمكننا أيضاً الحد من الأذى والخسائر إلى أقصى حد ممكن، لضمان استخدامنا للذكاء الاصطناعي بطريقة مسؤولة، وسنواصل العمل بشكل وثيق مع شركائنا ضمن التحالفات القائمة، مثل الاتحاد الأوروبي وحلف شمال الأطلسي، ولكن أيضاً مع المنظمات غير الحكومية ومراكز الفكر والدراسات والمؤسسات التعليمية والمعرفية والشركات. من خلال القيام بذلك، سوف نستثمر في ديمقراطيتنا وحريتنا.
الخاتمة
الذكاء الاصطناعي يتطور بسرعة، ويجب أن تستعد البشرية لاتخاذ الإجراءات اللازمة في أسرع وقت ممكن، لذا استهدفت القمة منع إساءة استخدام الذكاء الاصطناعي في المجال العسكري وتوعية المجتمع الدولي بالمخاطر المحتملة لاستخدام الذكاء الاصطناعي وأهمية تطوير واستخدام الذكاء الاصطناعي المسؤول. في هذا السياق يمكننا القول إن القمة مثلت خطوة مهمة في هذا الطريق يعود الفضل فيه للتعاون العابر لحدود الأقاليم بين دولة أوروبية وهي هولندا ودولة آسيوية وهي كوريا الجنوبية. وينتظر المهتمون بالاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري القمة الدولية الثانية التي ستعقد في كوريا الجنوبية.
» الأستاذ الدكتور وائل صالح
)خبير في مركز تريندز للبحوث والاستشارات(