تتسارع وتيرة التقدم المذهل الذي تشهده البشرية في قطاع الذكاء الاصطناعي يوماً بعد يوم في كل مجالات الحياة وعلى جميع المستويات، حيث أفرز التطور الهائل في هذا القطاع اختراعات وابتكارات كانت تعتبر في الماضي من قصص الخيال العلمي.
حقق التطور في مجال الذكاء الاصطناعي قفزات كبيرة، حيث ساعد على تطوير شبكات عصبية صناعية تحاكي في طريقة عملها أسلوب الدماغ البشري، أي أنها قادرة على التجريب والتعلم وتطوير نفسها ذاتياً دون تدخل الإنسان.
وقد أحدث الذكاء الاصطناعي وتطبيقاته المتطورة آثاراً بالغة الأهمية في القطاع العسكري، وأصبح ينذر بإخراج سباق التسلح بين القوى العظمى عن السيطرة، ذلك أنه برز كخيار عالي الأهمية ضمن استراتيجيات الصناعات الدفاعية في العديد من الدول التي تتبنى تطوير هذه التقنيات التكنولوجية المتقدمة ضمن معداتها وتجهيزاتها وأنظمتها العسكرية، ومن المتوقع أن تجعلها أكثر كفاءة ودقة في التعامل مع كميات ضخمة من البيانات وتحليل التطورات والسيناريوهات، وعمليات اتخاذ القرار، إذ أنها بدأت تحاكي القدرات الذهنية للبشر وأصبح لديها القدرة على الاستنتاج ورد الفعل والتعلم واكتساب الخبرات.
وما بين جوانب التأثير الإيجابية والسلبية لعسكرة الذكاء الاصطناعي، التي تتحدث عنها وتحذر منها الدراسات والتقارير يومياً، ثار الجدل وتركزت المخاوف حول إشكالية قدرة هذا الذكاء على محاكاة عقول البشر والتفكير بذهنية العسكري في اتخاذ القرارات ووضع الاستراتيجيات الحربية وتنفيذها وفق القواعد والأخلاقيات، كما بدأت تتعالى النداءات المطالبة بضرورة حوكمة الذكاء الاصطناعي في المجال العسكري ووضع مبادئ وأخلاقيات عالمية لتنظيمه، ومعالجة أوجه القصور في خوارزميات الذكاء التي قد تجعل الآلة العسكرية تفكر وتدرك كالجندي البشري.
وقبل الخوض في الإشكالية المثارة، علينا أن نعلم جيداً أن بعض الدراسات والتقارير الخاصة بمجال الذكاء الاصطناعي العسكري تجمع على أن معظم الأسلحة الذكية التي وصلت إليها التقنية سواء أكانت ذاتية القيادة أو التي تعمل بتدخل بشري، لن تعمل بصورة جيدة عند الحاجة إلى اتخاذ قرارات حاسمة ووضع استراتيجيات حربية بمعزل عن التدخل البشري الذي يعتمد أساساً على العقل والأخلاق في تنفيذ أفكار وتكتيكات عسكرية تحسم الفوز في المعارك، وتحترم قانون النزاعات المسلحة.
الذكاء الاصطناعي والعقل البشري
وبناء على الجدلية السابقة، يحاول عدد من العلماء تطوير خوارزميات يمكنها قراءة أفكار الإنسان ومحاكاة دماغه وفك تشفيره وفهم ما يدور داخل عقله، مما أثار حفيظة الكثير من العلماء الذين اعتبروا أن الخوض في هذه المسألة ليسإلا “مضيعة للوقت”.
وفي هذا الإطار، قال عالم فيزياء الفلك البريطاني “ستفين هوكينغ” إن ابتكار أجهزة حاسوب تمتلك عقولاً خاصة بها “يمكن أن يؤذن بنهاية الجنس البشري”.
أما منظمة الأمم المتحدة للتربية والعلم والثقافة “يونيسكو”، فرأت أن “الذكاء الاصطناعي في وضعه الحالي، ليس قادراً على التفكير. وما زلنا بعيدين كل البعد عن إمكانية تحميل كافة مكونات الكائن البشري في حاسوب”، فيما يذهب “جان غابريال غاناسيا”، أستاذ المعلوماتية في جامعة “السوربون” إلى أبعد من ذلك واعتبر أن الحديث عن أن الآلة سوف تصبح أذكى من الإنسان “أسطورة مستوحاة من الخيال العلمي”.
أما الفيلسوف والمحلل النفسي الأرجنتيني “ميغال بن الصايغ” فيقول: “إن اختصار التركيبة المعقدة للأحياء في مجرد رموز رقمية إنما هو من محض الافتراء، كما تبقى فكرة تعويض الإنسان بالآلة من باب اللامعقول”.
ويرى “ميغال” أن الذكاء الاصطناعي، رغم قدرته على الحساب التي تتجاوز قدرة الإنسان، ليس في استطاعته إعطاء مدلول للحسابات التي ينتجها.
ويعتبر مؤسس شركة “تيسلا” لإنتاج السيارات الكهربائية “إيلون ماسك” الذكاء الاصطناعي “أكبر تهديد يواجه وجودنا نحن البشر”، مشبهاً الآلات التي تفكر بـ”الأسلحة النووية” و”الشيطان”.
وأجرى الفيلسوف السويدي “نيك بوستروم” الذي يعمل بجامعة أوكسفورد استطلاعاً للرأي بين مجموعة من خبراء الذكاء الاصطناعي حول الموعد الذي يثقون أن العلم سيحقق فيه مستوى رفيعاً من ذكاء الآلات، وأعرب هؤلاء الخبراء عن اعتقادهم بأن ذلك سيتحقق في المتوسط عام 2075، وبعد 30 عاماً يمكن ابتكار الآلات ذات الذكاء الفائق، التي يمكن أن تتفوق على تفكير الإنسان، وقال 21% ممن شملهم الاستطلاع إن ذلك لن يتحقق على الإطلاق، مما يدفعنا إلى الاستنتاج بأن العقل البشري سيظل سيد الذكاء الاصطناعي حتى وقت بعيد.
أخلاقيات الذكاء الاصطناعي
يرتبط العقل البشري ارتباطاً وثيقاً بالأخلاق حيث تقوم القيم الأخلاقية بتهذيب العقل تهذيباً يتناسب مع إنسانية البشر وتوافقه مع الطبيعة، فالأخلاق هي التي تميز ردود فعل الإنسان وتحثه على الاختيار الأفضل في الظروف والخيارات الصعبة.
ومن هذا المنطلق، أحدثت المسائل الأخلاقية في عسكرة الذكاء الاصطناعي جدلاً واسعاً بين القوى العالمية، وبدأ الجميع يتساءل، هل يمتلك الذكاء الاصطناعي أخلاقاً يمكن أن تعوض أخلاق البشر؟.
وكشف استبيان أجرته مؤسسة “ديلويت” في الولايات المتحدة عام 2018، على 1400 من المسؤولين التنفيذيين واسعي الاطلاع على مجالات الذكاء الاصطناعي، أن أحد أكبر التحديات التي تواجه الذكاء الاصطناعي تكمن في المجال الأخلاقي.
حيث صنف 32% من المشاركين القضايا الأخلاقية على أنها واحدة من أهم 3 مخاطر يمثلها الذكاء الاصطناعي، في حين لا تمتلك معظم المؤسسات مقاربات محددة للتعامل مع أخلاقيات الذكاء الاصطناعي حتى الآن.
وبالتالي، من الضروري تحديد مشاكل الذكاء الاصطناعي وتداعياتها على المجتمع، من أجل إدارة مخاطر ذكاء الآلة بأسلوب يناسب تطوير السياسات التي تراعي القيم الإنسانية في المجال العسكري.
وضع الاستراتيجيات وصنع القرار
وعلى الرغم من أن علم التقنية في المجال العسكري قد توصل إلى حلول ذكية تسهل عمل الجيوش وتعوضها في الكثير من المهام، إلا أن الكثير من الخبراء يرون أن ما تحقق ينطوي على العديد من المخاطر خاصة في مجال وضع الاستراتيجيات وصنع القرار.
وفي هذا السياق تقول مؤسسة “راند” الأمريكية للدراسات العسكرية في تقرير بحثي حديث نشرته مطلع العام الجاري 2020 بعنوان: “الردع في عصر آلات التفكير”، “حتى الآن، شمل الردع البشر الذين يحاولون ثني نظرائهم عن اتخاذ مسارات معينة”.
وتتساءل المؤسسة البحثية: “ماذا يحدث عندما لا تكون عمليات التفكير واتخاذ القرار بيد البشر؟ كيف يمكن أن تتغير الديناميات عندما يمكن اتخاذ القرارات والإجراءات بسرعات الجهاز؟ كيف يمكن أن يؤثر الذكاء الاصطناعي والتحكم الذاتي على الطرق التي طورتها البلدان للإشارة إلى بعضها البعض بشأن الاستخدام المحتمل للقوة؟ ما هي المجالات المتوقعة لسوء الفهم والتقدير والنتائج غير المقصودة، والتصعيد غير المرغوب فيه على وجه الخصوص؟”.
وترى “راند” أن عملية صنع القرار في الآلة العسكرية يمكن أن تؤدي إلى سوء تقدير وتصعيد غير مقصود أو ديناميات رادعة متغيرة، بسبب سرعة صنع القرار في الأنظمة الذكية، والطرق التي تختلف بها عن الفهم الإنساني، واستعداد العديد من الدول لاستخدام أنظمة ذكية مستقلة تتطور قدراتها باستمرار، في ظل قلة الخبرة البشرية مع هذه الأنظمة.
ويرى التقرير في فصله السابع الذي جاء بعنوان: “الآثار المترتبة على الردع” أن الأنظمة الدفاعية المأهولة قد تكون أفضل للردع من الآلات العسكرية الذكية غير المأهولة، ويرجح التقرير أن تكون هذه الآلات أسوأ في فهم الاستراتيجيات العسكرية البشرية المتعلقة بالردع والتصعيد واتخاذ القرارات خلال الأزمات والصراعات.
ويدعو التقرير البحثي إلى ضرورة أن يبدأ المخططون وصناع القرار في مختلف بقاع العالم ببحث ودراسة المشاكل التي يمكن أن تؤدي إلى زعزعة الاستقرار أو التصعيد المحتمل عبر التقنيات المتطورة والأنظمة المستخدمة في عسكرة الذكاء الاصطناعي قبل إشراكها في الحروب والنزاعات، إذ أن جهود التخطيط والتطوير الراهنة لم تتواكب مع كيفية التعامل مع مثل هذه التحديات على عدة مستويات أهمها التشغيلية والاستراتيجية.
على صعيد آخر، يتساءل “جيمس أندرو لويس”، مدير برنامج التكنولوجيا والسياسات العامة بمركز الدراسات الاستراتيجية والدولية “CSIS” في واشنطن: “هل يمكن أن يعوض الذكاء الاصطناعي أوجه القصور الاستراتيجية؟”، ويجيب عن هذا التساؤل بالقول في مقال تحليلي: “إن الذكاء الاصطناعي ليس جيداً في تطوير الاستراتيجية وربما سيتغير هذا مع نضج التكنولوجيا”.
ويؤكد “جيمس أندرو” في مقاله الذي نشر نهاية يناير الماضي، أنه “لا يمكننا أن نتوقع من الذكاء الاصطناعي وحده أن يعالج نقاط الضعف الحالية لدينا فهو أداة حوسبة متطورة إلى حد كبير، ولا تستطيع أن تصور وتجمع بين الاهتمامات والأهداف والوسائل بطرق تنمي الاستراتيجية التي لا تزال وظيفة الإنسان”، ويضيف، بأن “الفوائد العسكرية للذكاء الاصطناعي في حد ذاتها غير كافية لتعويض الانتكاسات الناجمة عن وجود استراتيجية مضللة”.
ومما لا شك فيه أن التنبؤ بالاختراقات العلمية أمر بالغ الصعوبة في ظل تسارع التطورات والاختراعات التكنولوجية على مستوى العالم، وربما تنجح جهود العلماء عما قريب في تقليص الفجوة الهائلة بين العقول الإلكترونية والعقول البشرية، وحتى ذلك الحين لا بد من التعامل مع جميع جوانب الذكاء الاصطناعي العسكري باهتمام بالغ باعتباره المستقبل الذي يمكن أن تختفي فيه حروب الجيوش التقليدية، وتتحول إلى حروب ذكية تنهي وظيفة الجندي البشري.