أصبح للذكاء الاصطناعي وتطبيقاته دور محوري في تطوير حياتنا البشرية، ولم تعد أدواته الحديثة ضرباً من الخيال، بل بات واقعاً ملموساً فرض نفسه بقوة على مختلف قطاعات ومناحي الحياة، ليشكل صورة جديدة للحياة الإنسانية. وقد أفرزت التطورات التقنية الذكية في كثير من المجالات أجهزة وآلات وروبوتات متطورة أنهت الكثير من الوظائف التي كانت تعتمد على العنصر البشري، لذلك بدأ ينادي الخبراء بضرورة تركيز الجهود وتشكيل رؤية وخطة عمل استراتيجية لجميع القطاعات لتتماشى مع ثورة الذكاء الاصطناعي التي أصبحت تفتح آفاقاً جديدة ومثيرة يوماً بعد يوم.
وبالتزامن مع النمو الهائل لاستخدامات التكنولوجيا الذكية وتطبيقاتها، برزت على المستويين العسكري والأمني مخاطر وإشكاليات أخلاقية متعددة مع ظهور الأسلحة والروبوتات العسكرية والأمنية الذكية ذات التحكم الذاتي، حيث دفعت الثورة التكنولوجية في هذا المجال مختلف دول العالم إلى دق ناقوس الخطر والدعوة إلى ضبط وتنظيم استخدامات الذكاء الاصطناعي عسكرياً وفق مبادئ وأخلاقيات تحترم حقوق الإنسان، وتحافظ على السلم والأمن العالميين، إذ أن الاستغناء عن الإنسان في إصدار القرارات والأحكام واستبداله بأنظمة ذكية تعتمد على البيانات والأرقام، يمكنه أن ينتج عواقب وخيمةحسب ما يرى الخبراء.
وفي هذا السياق، أعلنت وزارة الدفاع الأمريكية (البنتاغون) في الـ 25 فبراير 2020 تبني «مبادئ أخلاقية» لاستخدام القوات المسلحة الذكاء الاصطناعي، وهو إجراء يهدف خصوصاً إلى إقناع موظفي الشركات التكنولوجية الأمريكية العملاقة بالتعاون مع الجنود.
وقال وزير الدفاع الأمريكي مارك إسبر: «من شأن الذكاء الصناعي تغيير أمور كثيرة في ساحة المعركة في المستقبل، لكن لن يغير التزام أمريكا الثابت بالتصرف بمسؤولية وبشكل قانوني».
وأكدت وزارة الدفاع الأمريكية التي تنتقد استخدام الشرطة في الصين لتقنية التعرف على الوجوه، أنها ملتزمة باستعمال أدوات الذكاء الاصطناعي لاستخدامات «صريحة ومحددة»، كما أن هذه الأدوات «الذكية» ستكون «موثوقة» و»قابلة للتحكم بها».
ولا تزال مسألة الأسلحة الذاتية موضع نقاش داخل البنتاغون، حيث إن المبدأ الأساسي هو الشكوك حول قدرة الآلة على اتخاذ القرار الصائب.
وتم تحديد هذه المبادئ بعد 15 شهراً من المشاورات مع ممثلي عمالقة التكنولوجيا الأمريكيين والجامعات الكبرى والإداريين برئاسة إريك شميدت الرئيس السابق لمجلس إدارة غوغل.
وبضغط من موظفيها، تخلت «غوغل» في 2018 عن صفقة مع البنتاغون تهدف إلى مساعدة الطائرات من دون طيار على التمييز بين الأشياء والبشر بشكل أفضل بفضل الذكاء الاصطناعي وهو مشروع أطلق عليه «مايفن».
وقال الجنرال جاك شاناهان رئيس قسم الذكاء الاصطناعي في البنتاغون خلال تقديم هذه المبادئ الجديدة للصحافة: «لو كان لدينا مبادئ أخلاقية حول الذكاء الاصطناعي قبل ثلاث سنوات (عندما أطلق مشروع مايفن) ولو كنا شفافين حول ما كنا نحاول القيام به فربما كانت النتيجة ستكون مختلفة».
وقالت دانا ديسي كبير مسؤولي المعلومات في البنتاغون، إن المبادئ الخمسة للذكاء الاصطناعي ستضع الأساس لـ»التصميم الأخلاقي والتطوير والانتشار واستخدام الذكاء الاصطناعي من قبل وزارة الدفاع».
وتدعو المبادئ الجديدة الأشخاص إلى «ممارسة مستويات مناسبة من الحكم والعناية» عند نشر واستخدام أنظمة الذكاء الاصطناعي، مثل تلك التي تفحص الصور الجوية للبحث عن الأهداف.
وتقول تلك المبادئ إن القرارات التي تتخذها الأنظمة الآلية يجب أن تكون «قابلة للتعقب» و»قابلة للحكم»، بمعنى «أن تكون هناك طريقة لفك الارتباط أو إلغاء تنشيطها» إذا كانت تثبت سلوكاً غير مقصود، وذلك وفقاً للواء القوات الجوية جاك شاناهان مدير مركز الذكاء الاصطناعي المشترك في البنتاغون.
ويتطلب التوجيه العسكري الحالي الموجود منذ عام 2012، من البشر التحكم في الأسلحة الآلية، ولكن لا يتناول الاستخدامات الأوسع نطاقاً للذكاء الاصطناعي. وتهدف المبادئ الأمريكية الجديدة إلى توجيه التطبيقات القتالية وغير القتالية، من عمليات جمع المعلومات الاستخبارية والمراقبة إلى التنبؤ بمشاكل الصيانة في الطائرات أو السفن.
المبادئ الأخلاقية التي تم تبنيها:
1
المسؤولية: تقع مسؤولية تطوير ورعاية ونشر واستخدام قدرات الذكاء الاصطناعي على موظفي وزارة الدفاع الأمريكية.
2
العدل: اتخاذ خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
3
التعقب: تطوير إمكانات قسم الذكاء الاصطناعي في الجهات المعنية، بحيث يتمتع الموظفون المعنيون بفهم مناسب للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق.
4
الثقة: أن يكون لإمكانيات وقدرات الذكاء الاصطناعي استخدامات واضحة ومحددة جيداً، مع ضرورة أن تخضع سلامة وأمن وفعالية تلك القدرات للاختبار المستمر والتأكد من استخداماتها عبر دورات حياتها.
5
التحكم: تصميم وهندسة قدرات الذكاء الاصطناعي لتحقيق الوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة، والقدرة على فك الارتباط أو إلغاء تنشيط الأنظمة التي تظهر السلوك غير المقصود.
نداء روما
وعلى صعيد آخر، صدرت في 28 فبراير 2020 عن كل من الفاتيكان، وشركتي «آي بي إم» و»مايكروسوفت» وثيقة دولية بعنوان: «نداء روما لأخلاقيات الذكاء الاصطناعي»، متضمنة ستة مبادئ أساسية.
وطالب مصدرو الوثيقة جميع الأطراف العاملة في هذه التقنية بالالتزام بها، لضمان عدم انحراف هذه التقنيات عن مسارها الحميد، وانزلاقها إلى ممارسات ضارة بالإنسانية.
وشملت هذه المبادئ التي نُشرت على موقع academyforlife.va التابع للفاتيكان: الشفافية في تصميم وبناء وتشغيل هذه النظم، والشمولية في الاستخدام، والمسؤولية، والحياد، والموثوقية، والأمن والخصوصية.
وقال متحدث باسم بابا الفاتيكان إن التطورات الملحوظة في مجال التكنولوجيا، خصوصاً تلك التي تتعامل مع الذكاء الاصطناعي، تثير تداعيات مهمة على نحو متزايد في جميع مجالات النشاط البشري، لهذا السبب هناك حاجة الآن إلى مناقشات مفتوحة وملموسة حول هذا الموضوع.
وكان البابا فرانسيس كان قد حذر سابقاً من أن التقدم التكنولوجي، إن لم يكن قيد الفحص، يمكن أن يؤدى بالمجتمع إلى «انحدار مؤسف إلى شكل من البربرية».
وجاءت الوثيقة على خلفية جدل تصاعد أخيراً، حول مخاطر الذكاء الاصطناعي، وضرورة ضبطها أخلاقياً، وهي مخاوف عبر عنها العديد من قادة شركات التقنية.
وتضمنت الوثيقة ما سمته «أخلاقيات الخوارزميات»، أو الجوانب والأسس الأخلاقية التي يتعين أن يلتزم بها كل من ينشئ خوارزمية مخصصة لنظم وتقنيات الذكاء الاصطناعي التي قد تحدث تغييرات عميقة في حياة البشر.
وخلصت الوثيقة إلى ستة مبادئ، قالت إنها تمثل الأسس الأخلاقية المطلوبة في الذكاء الاصطناعي وأنظمة التعرف إلى الوجوه.
1
الشفافية والقابلية للتفسير: أن تكون هناك شفافية ووضوح في تصميم وبناء وتشغيل أنظمة الذكاء الاصطناعي، ليكون ما تقوم به قابلاً للشرح والتفسير والفهم من جانب المستخدمين.
2
الشمولية: أن تشمل أنظمة الذكاء الاصطناعي احتياجات جميع البشر، حتى يتمكن الجميع من الاستفادة منها، وتتوافر لهم أفضل الظروف الممكنة للتعبير عن أنفسهم حيالها.
3
المسؤولية: أن يتحلى كل من يشارك في تصميم وبناء وتشغيل وتطوير أنظمة الذكاء الاصطناعي بالمسؤولية والشفافية، ومراعاة مصالح الآخرين، وتحمّل نتائج تشغيل ونشر ما يصنعه من نظم.
4
الحياد: يتم تصميم وبناء وتشغيل نظم الذكاء الاصطناعي بطرق ومنهجيات وأدوات لا تعرف التحيز، وتحمي وتصون العدالة وكرامة الإنسان.
5
الموثوقية: أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بصورة موثوق بها، من ناحية المعالجات والعمليات والنتائج، بحيث يعتمد عليها، وعلى دقة نتائجها في العمل.
6
الأمن والخصوصية: يجب أن تتوفر لأنظمة الذكاء الاصطناعي القدرة على العمل بصورة مؤمنة ضد عمليات الاختراق والتسلل والتلاعب من قبل الآخرين، واحترام خصوصية المستخدمين ولا تنتهكها.
وتجدر الإشارة إلى أن قضايا مبادئ وأخلاقيات الذكاء الاصطناعي ليست بالأمر الجديد، فهي محل جدل ونقاش كبيرين على جميع المستويات منذ عدة أعوام سواء داخل مجتمع التكنولوجيا أو خارجه، وقد خصصت لبحث هذه القضايا مليارات الدولارات على مستوى المنظمات الدولية والجامعات والشركات التكنولوجية، ولكن ما أعاد ظهورها في الوقت الراهن التطور المتسارع في الأنظمة المستخدمة في عسكرة هذا الذكاء.
ويدرس الاتحاد الأوروبي حالياً تطبيق ضوابط تلزم مطوري تقنيات الذكاء الاصطناعي لضمان تطوير هذه التقنيات واستخدامها وفق أساليب أخلاقية، فيما كشفت الإدارة الأمريكية مع بداية العام الجاري 2020 النقاب عن مجموعة من القواعد التي يجب على الوكالات الفيدرالية اتباعها عند تصميم سياسات الذكاء الاصطناعي.