shutterstock_795977008

مبادئ وأخلاقيات‭ ‬دولية لتنظيم‭ ‬استخدام الذكاء‭ ‬الاصطناعي‭ ‬العسكري

Share on email
Share on facebook
Share on linkedin
Share on whatsapp
Share on twitter

أصبح‭ ‬للذكاء‭ ‬الاصطناعي‭ ‬وتطبيقاته‭ ‬دور‭ ‬محوري‭ ‬في‭ ‬تطوير‭ ‬حياتنا‭ ‬البشرية،‭ ‬ولم‭ ‬تعد‭ ‬أدواته‭ ‬الحديثة‭ ‬ضرباً‭ ‬من‭ ‬الخيال،‭ ‬بل‭ ‬بات‭ ‬واقعاً‭ ‬ملموساً‭ ‬فرض‭ ‬نفسه‭ ‬بقوة‭ ‬على‭ ‬مختلف‭ ‬قطاعات‭ ‬ومناحي‭ ‬الحياة،‭ ‬ليشكل‭ ‬صورة‭ ‬جديدة‭ ‬للحياة‭ ‬الإنسانية‭. ‬وقد‭ ‬أفرزت‭ ‬التطورات‭ ‬التقنية‭ ‬الذكية‭ ‬في‭ ‬كثير‭ ‬من‭ ‬المجالات‭ ‬أجهزة‭ ‬وآلات‭ ‬وروبوتات‭ ‬متطورة‭ ‬أنهت‭ ‬الكثير‭ ‬من‭ ‬الوظائف‭ ‬التي‭ ‬كانت‭ ‬تعتمد‭ ‬على‭ ‬العنصر‭ ‬البشري،‭ ‬لذلك‭ ‬بدأ‭ ‬ينادي‭ ‬الخبراء‭ ‬بضرورة‭ ‬تركيز‭ ‬الجهود‭ ‬وتشكيل‭ ‬رؤية‭ ‬وخطة‭ ‬عمل‭ ‬استراتيجية‭ ‬لجميع‭ ‬القطاعات‭ ‬لتتماشى‭ ‬مع‭ ‬ثورة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬التي‭ ‬أصبحت‭ ‬تفتح‭ ‬آفاقاً‭ ‬جديدة‭ ‬ومثيرة‭ ‬يوماً‭ ‬بعد‭ ‬يوم‭.‬

وبالتزامن‭ ‬مع‭ ‬النمو‭ ‬الهائل‭ ‬لاستخدامات‭ ‬التكنولوجيا‭ ‬الذكية‭ ‬وتطبيقاتها،‭ ‬برزت‭ ‬على‭ ‬المستويين‭ ‬العسكري‭ ‬والأمني‭ ‬مخاطر‭ ‬وإشكاليات‭ ‬أخلاقية‭ ‬متعددة‭ ‬مع‭ ‬ظهور‭ ‬الأسلحة‭ ‬والروبوتات‭ ‬العسكرية‭ ‬والأمنية‭ ‬الذكية‭ ‬ذات‭ ‬التحكم‭ ‬الذاتي،‭ ‬حيث‭ ‬دفعت‭ ‬الثورة‭ ‬التكنولوجية‭ ‬في‭ ‬هذا‭ ‬المجال‭ ‬مختلف‭ ‬دول‭ ‬العالم‭ ‬إلى‭ ‬دق‭ ‬ناقوس‭ ‬الخطر‭ ‬والدعوة‭ ‬إلى‭ ‬ضبط‭ ‬وتنظيم‭ ‬استخدامات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬عسكرياً‭ ‬وفق‭ ‬مبادئ‭ ‬وأخلاقيات‭ ‬تحترم‭ ‬حقوق‭ ‬الإنسان،‭ ‬وتحافظ‭ ‬على‭ ‬السلم‭ ‬والأمن‭ ‬العالميين،‭ ‬إذ‭ ‬أن‭ ‬الاستغناء‭ ‬عن‭ ‬الإنسان‭ ‬في‭ ‬إصدار‭ ‬القرارات‭ ‬والأحكام‭ ‬واستبداله‭ ‬بأنظمة‭ ‬ذكية‭ ‬تعتمد‭ ‬على‭ ‬البيانات‭ ‬والأرقام،‭ ‬يمكنه‭ ‬أن‭ ‬ينتج‭ ‬عواقب‭ ‬وخيمةحسب‭ ‬ما‭ ‬يرى‭ ‬الخبراء‭.‬
وفي‭ ‬هذا‭ ‬السياق،‭ ‬أعلنت‭ ‬وزارة‭ ‬الدفاع‭ ‬الأمريكية‭ (‬البنتاغون‭) ‬في‭ ‬الـ‭ ‬25‭ ‬فبراير‭ ‬2020‭ ‬تبني‭ ‬‮«‬مبادئ‭ ‬أخلاقية‮»‬‭ ‬لاستخدام‭ ‬القوات‭ ‬المسلحة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬وهو‭ ‬إجراء‭ ‬يهدف‭ ‬خصوصاً‭ ‬إلى‭ ‬إقناع‭ ‬موظفي‭ ‬الشركات‭ ‬التكنولوجية‭ ‬الأمريكية‭ ‬العملاقة‭ ‬بالتعاون‭ ‬مع‭ ‬الجنود‭. ‬
وقال‭ ‬وزير‭ ‬الدفاع‭ ‬الأمريكي‭ ‬مارك‭ ‬إسبر‭: ‬‮«‬من‭ ‬شأن‭ ‬الذكاء‭ ‬الصناعي‭ ‬تغيير‭ ‬أمور‭ ‬كثيرة‭ ‬في‭ ‬ساحة‭ ‬المعركة‭ ‬في‭ ‬المستقبل،‭ ‬لكن‭ ‬لن‭ ‬يغير‭ ‬التزام‭ ‬أمريكا‭ ‬الثابت‭ ‬بالتصرف‭ ‬بمسؤولية‭ ‬وبشكل‭ ‬قانوني‮»‬‭. ‬
وأكدت‭ ‬وزارة‭ ‬الدفاع‭ ‬الأمريكية‭ ‬التي‭ ‬تنتقد‭ ‬استخدام‭ ‬الشرطة‭ ‬في‭ ‬الصين‭ ‬لتقنية‭ ‬التعرف‭ ‬على‭ ‬الوجوه،‭ ‬أنها‭ ‬ملتزمة‭ ‬باستعمال‭ ‬أدوات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬لاستخدامات‭ ‬‮«‬صريحة‭ ‬ومحددة‮»‬،‭ ‬كما‭ ‬أن‭ ‬هذه‭ ‬الأدوات‭ ‬‮«‬الذكية‮»‬‭ ‬ستكون‭ ‬‮«‬موثوقة‮»‬‭ ‬و»قابلة‭ ‬للتحكم‭ ‬بها‮»‬‭.‬
ولا‭ ‬تزال‭ ‬مسألة‭ ‬الأسلحة‭ ‬الذاتية‭ ‬موضع‭ ‬نقاش‭ ‬داخل‭ ‬البنتاغون،‭ ‬حيث‭ ‬إن‭ ‬المبدأ‭ ‬الأساسي‭ ‬هو‭ ‬الشكوك‭ ‬حول‭ ‬قدرة‭ ‬الآلة‭ ‬على‭ ‬اتخاذ‭ ‬القرار‭ ‬الصائب‭.‬
وتم‭ ‬تحديد‭ ‬هذه‭ ‬المبادئ‭ ‬بعد‭ ‬15‭ ‬شهراً‭ ‬من‭ ‬المشاورات‭ ‬مع‭ ‬ممثلي‭ ‬عمالقة‭ ‬التكنولوجيا‭ ‬الأمريكيين‭ ‬والجامعات‭ ‬الكبرى‭ ‬والإداريين‭ ‬برئاسة‭ ‬إريك‭ ‬شميدت‭ ‬الرئيس‭ ‬السابق‭ ‬لمجلس‭ ‬إدارة‭ ‬غوغل‭.‬
وبضغط‭ ‬من‭ ‬موظفيها،‭ ‬تخلت‭ ‬‮«‬غوغل‮»‬‭ ‬في‭ ‬2018‭ ‬عن‭ ‬صفقة‭ ‬مع‭ ‬البنتاغون‭ ‬تهدف‭ ‬إلى‭ ‬مساعدة‭ ‬الطائرات‭ ‬من‭ ‬دون‭ ‬طيار‭ ‬على‭ ‬التمييز‭ ‬بين‭ ‬الأشياء‭ ‬والبشر‭ ‬بشكل‭ ‬أفضل‭ ‬بفضل‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬وهو‭ ‬مشروع‭ ‬أطلق‭ ‬عليه‭ ‬‮«‬مايفن‮»‬‭. ‬
وقال‭ ‬الجنرال‭ ‬جاك‭ ‬شاناهان‭ ‬رئيس‭ ‬قسم‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬في‭ ‬البنتاغون‭ ‬خلال‭ ‬تقديم‭ ‬هذه‭ ‬المبادئ‭ ‬الجديدة‭ ‬للصحافة‭: ‬‮«‬لو‭ ‬كان‭ ‬لدينا‭ ‬مبادئ‭ ‬أخلاقية‭ ‬حول‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬قبل‭ ‬ثلاث‭ ‬سنوات‭ (‬عندما‭ ‬أطلق‭ ‬مشروع‭ ‬مايفن‭) ‬ولو‭ ‬كنا‭ ‬شفافين‭ ‬حول‭ ‬ما‭ ‬كنا‭ ‬نحاول‭ ‬القيام‭ ‬به‭ ‬فربما‭ ‬كانت‭ ‬النتيجة‭ ‬ستكون‭ ‬مختلفة‮»‬‭.‬
وقالت‭ ‬دانا‭ ‬ديسي‭ ‬كبير‭ ‬مسؤولي‭ ‬المعلومات‭ ‬في‭ ‬البنتاغون،‭ ‬إن‭ ‬المبادئ‭ ‬الخمسة‭ ‬للذكاء‭ ‬الاصطناعي‭ ‬ستضع‭ ‬الأساس‭ ‬لـ»التصميم‭ ‬الأخلاقي‭ ‬والتطوير‭ ‬والانتشار‭ ‬واستخدام‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬من‭ ‬قبل‭ ‬وزارة‭ ‬الدفاع‮»‬‭. ‬
وتدعو‭ ‬المبادئ‭ ‬الجديدة‭ ‬الأشخاص‭ ‬إلى‭ ‬‮«‬ممارسة‭ ‬مستويات‭ ‬مناسبة‭ ‬من‭ ‬الحكم‭ ‬والعناية‮»‬‭ ‬عند‭ ‬نشر‭ ‬واستخدام‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬مثل‭ ‬تلك‭ ‬التي‭ ‬تفحص‭ ‬الصور‭ ‬الجوية‭ ‬للبحث‭ ‬عن‭ ‬الأهداف‭.‬
وتقول‭ ‬تلك‭ ‬المبادئ‭ ‬إن‭ ‬القرارات‭ ‬التي‭ ‬تتخذها‭ ‬الأنظمة‭ ‬الآلية‭ ‬يجب‭ ‬أن‭ ‬تكون‭ ‬‮«‬قابلة‭ ‬للتعقب‮»‬‭ ‬و»قابلة‭ ‬للحكم‮»‬،‭ ‬بمعنى‭ ‬‮«‬أن‭ ‬تكون‭ ‬هناك‭ ‬طريقة‭ ‬لفك‭ ‬الارتباط‭ ‬أو‭ ‬إلغاء‭ ‬تنشيطها‮»‬‭ ‬إذا‭ ‬كانت‭ ‬تثبت‭ ‬سلوكاً‭ ‬غير‭ ‬مقصود،‭ ‬وذلك‭ ‬وفقاً‭ ‬للواء‭ ‬القوات‭ ‬الجوية‭ ‬جاك‭ ‬شاناهان‭ ‬مدير‭ ‬مركز‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬المشترك‭ ‬في‭ ‬البنتاغون‭.‬
ويتطلب‭ ‬التوجيه‭ ‬العسكري‭ ‬الحالي‭ ‬الموجود‭ ‬منذ‭ ‬عام‭ ‬2012،‭ ‬من‭ ‬البشر‭ ‬التحكم‭ ‬في‭ ‬الأسلحة‭ ‬الآلية،‭ ‬ولكن‭ ‬لا‭ ‬يتناول‭ ‬الاستخدامات‭ ‬الأوسع‭ ‬نطاقاً‭ ‬للذكاء‭ ‬الاصطناعي‭. ‬وتهدف‭ ‬المبادئ‭ ‬الأمريكية‭ ‬الجديدة‭ ‬إلى‭ ‬توجيه‭ ‬التطبيقات‭ ‬القتالية‭ ‬وغير‭ ‬القتالية،‭ ‬من‭ ‬عمليات‭ ‬جمع‭ ‬المعلومات‭ ‬الاستخبارية‭ ‬والمراقبة‭ ‬إلى‭ ‬التنبؤ‭ ‬بمشاكل‭ ‬الصيانة‭ ‬في‭ ‬الطائرات‭ ‬أو‭ ‬السفن‭.‬
المبادئ‭ ‬الأخلاقية‭ ‬التي‭ ‬تم‭ ‬تبنيها‭:‬
1‭ ‬
المسؤولية‭:‬‭ ‬تقع‭ ‬مسؤولية‭ ‬تطوير‭ ‬ورعاية‭ ‬ونشر‭ ‬واستخدام‭ ‬قدرات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬على‭ ‬موظفي‭ ‬وزارة‭ ‬الدفاع‭ ‬الأمريكية‭.‬
2‭ ‬
العدل‭:‬‭ ‬اتخاذ‭ ‬خطوات‭ ‬مدروسة‭ ‬لتقليل‭ ‬التحيز‭ ‬غير‭ ‬المقصود‭ ‬في‭ ‬قدرات‭ ‬الذكاء‭ ‬الاصطناعي‭.‬
3‭ ‬
التعقب‭:‬‭ ‬تطوير‭ ‬إمكانات‭ ‬قسم‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬في‭ ‬الجهات‭ ‬المعنية،‭ ‬بحيث‭ ‬يتمتع‭ ‬الموظفون‭ ‬المعنيون‭ ‬بفهم‭ ‬مناسب‭ ‬للتكنولوجيا‭ ‬وعمليات‭ ‬التطوير‭ ‬والأساليب‭ ‬التشغيلية‭ ‬المطبقة‭ ‬على‭ ‬قدرات‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬بما‭ ‬في‭ ‬ذلك‭ ‬المنهجيات‭ ‬الشفافة‭ ‬والقابلة‭ ‬للتدقيق‭ ‬ومصادر‭ ‬البيانات‭ ‬وإجراءات‭ ‬التصميم‭ ‬والوثائق‭.‬
4‭ ‬
الثقة‭:‬‭ ‬أن‭ ‬يكون‭ ‬لإمكانيات‭ ‬وقدرات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬استخدامات‭ ‬واضحة‭ ‬ومحددة‭ ‬جيداً،‭ ‬مع‭ ‬ضرورة‭ ‬أن‭ ‬تخضع‭ ‬سلامة‭ ‬وأمن‭ ‬وفعالية‭ ‬تلك‭ ‬القدرات‭ ‬للاختبار‭ ‬المستمر‭ ‬والتأكد‭ ‬من‭ ‬استخداماتها‭ ‬عبر‭ ‬دورات‭ ‬حياتها‭.‬
5‭ ‬
التحكم‭:‬‭ ‬تصميم‭ ‬وهندسة‭ ‬قدرات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬لتحقيق‭ ‬الوظائف‭ ‬المقصودة‭ ‬مع‭ ‬امتلاك‭ ‬القدرة‭ ‬على‭ ‬اكتشاف‭ ‬وتجنب‭ ‬العواقب‭ ‬غير‭ ‬المقصودة،‭ ‬والقدرة‭ ‬على‭ ‬فك‭ ‬الارتباط‭ ‬أو‭ ‬إلغاء‭ ‬تنشيط‭ ‬الأنظمة‭ ‬التي‭ ‬تظهر‭ ‬السلوك‭ ‬غير‭ ‬المقصود‭.‬
نداء‭ ‬روما
وعلى‭ ‬صعيد‭ ‬آخر،‭ ‬صدرت‭ ‬في‭ ‬28‭ ‬فبراير‭ ‬2020‭ ‬عن‭ ‬كل‭ ‬من‭ ‬الفاتيكان،‭ ‬وشركتي‭ ‬‮«‬آي‭ ‬بي‭ ‬إم‮»‬‭ ‬و»مايكروسوفت‮»‬‭ ‬وثيقة‭ ‬دولية‭ ‬بعنوان‭: ‬‮«‬نداء‭ ‬روما‭ ‬لأخلاقيات‭ ‬الذكاء‭ ‬الاصطناعي‮»‬،‭ ‬متضمنة‭ ‬ستة‭ ‬مبادئ‭ ‬أساسية‭. ‬
وطالب‭ ‬مصدرو‭ ‬الوثيقة‭ ‬جميع‭ ‬الأطراف‭ ‬العاملة‭ ‬في‭ ‬هذه‭ ‬التقنية‭ ‬بالالتزام‭ ‬بها،‭ ‬لضمان‭ ‬عدم‭ ‬انحراف‭ ‬هذه‭ ‬التقنيات‭ ‬عن‭ ‬مسارها‭ ‬الحميد،‭ ‬وانزلاقها‭ ‬إلى‭ ‬ممارسات‭ ‬ضارة‭ ‬بالإنسانية‭.‬
وشملت‭ ‬هذه‭ ‬المبادئ‭ ‬التي‭ ‬نُشرت‭ ‬على‭ ‬موقع‭ ‬academyforlife.va‭ ‬التابع‭ ‬للفاتيكان‭: ‬الشفافية‭ ‬في‭ ‬تصميم‭ ‬وبناء‭ ‬وتشغيل‭ ‬هذه‭ ‬النظم،‭ ‬والشمولية‭ ‬في‭ ‬الاستخدام،‭ ‬والمسؤولية،‭ ‬والحياد،‭ ‬والموثوقية،‭ ‬والأمن‭ ‬والخصوصية‭.‬
وقال‭ ‬متحدث‭ ‬باسم‭ ‬بابا‭ ‬الفاتيكان‭ ‬إن‭ ‬التطورات‭ ‬الملحوظة‭ ‬في‭ ‬مجال‭ ‬التكنولوجيا،‭ ‬خصوصاً‭ ‬تلك‭ ‬التي‭ ‬تتعامل‭ ‬مع‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬تثير‭ ‬تداعيات‭ ‬مهمة‭ ‬على‭ ‬نحو‭ ‬متزايد‭ ‬في‭ ‬جميع‭ ‬مجالات‭ ‬النشاط‭ ‬البشري،‭ ‬لهذا‭ ‬السبب‭ ‬هناك‭ ‬حاجة‭ ‬الآن‭ ‬إلى‭ ‬مناقشات‭ ‬مفتوحة‭ ‬وملموسة‭ ‬حول‭ ‬هذا‭ ‬الموضوع‭.‬
وكان‭ ‬البابا‭ ‬فرانسيس‭ ‬كان‭ ‬قد‭ ‬حذر‭ ‬سابقاً‭ ‬من‭ ‬أن‭ ‬التقدم‭ ‬التكنولوجي،‭ ‬إن‭ ‬لم‭ ‬يكن‭ ‬قيد‭ ‬الفحص،‭ ‬يمكن‭ ‬أن‭ ‬يؤدى‭ ‬بالمجتمع‭ ‬إلى‭ ‬‮«‬انحدار‭ ‬مؤسف‭ ‬إلى‭ ‬شكل‭ ‬من‭ ‬البربرية‮»‬‭.‬
وجاءت‭ ‬الوثيقة‭ ‬على‭ ‬خلفية‭ ‬جدل‭ ‬تصاعد‭ ‬أخيراً،‭ ‬حول‭ ‬مخاطر‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬وضرورة‭ ‬ضبطها‭ ‬أخلاقياً،‭ ‬وهي‭ ‬مخاوف‭ ‬عبر‭ ‬عنها‭ ‬العديد‭ ‬من‭ ‬قادة‭ ‬شركات‭ ‬التقنية‭.‬
وتضمنت‭ ‬الوثيقة‭ ‬ما‭ ‬سمته‭ ‬‮«‬أخلاقيات‭ ‬الخوارزميات‮»‬،‭ ‬أو‭ ‬الجوانب‭ ‬والأسس‭ ‬الأخلاقية‭ ‬التي‭ ‬يتعين‭ ‬أن‭ ‬يلتزم‭ ‬بها‭ ‬كل‭ ‬من‭ ‬ينشئ‭ ‬خوارزمية‭ ‬مخصصة‭ ‬لنظم‭ ‬وتقنيات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬التي‭ ‬قد‭ ‬تحدث‭ ‬تغييرات‭ ‬عميقة‭ ‬في‭ ‬حياة‭ ‬البشر‭.‬
وخلصت‭ ‬الوثيقة‭ ‬إلى‭ ‬ستة‭ ‬مبادئ،‭ ‬قالت‭ ‬إنها‭ ‬تمثل‭ ‬الأسس‭ ‬الأخلاقية‭ ‬المطلوبة‭ ‬في‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬وأنظمة‭ ‬التعرف‭ ‬إلى‭ ‬الوجوه‭.‬
1‭ ‬
الشفافية‭ ‬والقابلية‭ ‬للتفسير‭:‬‭ ‬أن‭ ‬تكون‭ ‬هناك‭ ‬شفافية‭ ‬ووضوح‭ ‬في‭ ‬تصميم‭ ‬وبناء‭ ‬وتشغيل‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي،‭ ‬ليكون‭ ‬ما‭ ‬تقوم‭ ‬به‭ ‬قابلاً‭ ‬للشرح‭ ‬والتفسير‭ ‬والفهم‭ ‬من‭ ‬جانب‭ ‬المستخدمين‭.‬
2‭ ‬
الشمولية‭:‬‭ ‬أن‭ ‬تشمل‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬احتياجات‭ ‬جميع‭ ‬البشر،‭ ‬حتى‭ ‬يتمكن‭ ‬الجميع‭ ‬من‭ ‬الاستفادة‭ ‬منها،‭ ‬وتتوافر‭ ‬لهم‭ ‬أفضل‭ ‬الظروف‭ ‬الممكنة‭ ‬للتعبير‭ ‬عن‭ ‬أنفسهم‭ ‬حيالها‭.‬
3‭ ‬
المسؤولية‭:‬‭ ‬أن‭ ‬يتحلى‭ ‬كل‭ ‬من‭ ‬يشارك‭ ‬في‭ ‬تصميم‭ ‬وبناء‭ ‬وتشغيل‭ ‬وتطوير‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬بالمسؤولية‭ ‬والشفافية،‭ ‬ومراعاة‭ ‬مصالح‭ ‬الآخرين،‭ ‬وتحمّل‭ ‬نتائج‭ ‬تشغيل‭ ‬ونشر‭ ‬ما‭ ‬يصنعه‭ ‬من‭ ‬نظم‭. ‬
4‭ ‬
الحياد‭:‬‭ ‬يتم‭ ‬تصميم‭ ‬وبناء‭ ‬وتشغيل‭ ‬نظم‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬بطرق‭ ‬ومنهجيات‭ ‬وأدوات‭ ‬لا‭ ‬تعرف‭ ‬التحيز،‭ ‬وتحمي‭ ‬وتصون‭ ‬العدالة‭ ‬وكرامة‭ ‬الإنسان‭.‬
5‭ ‬
الموثوقية‭:‬‭ ‬أن‭ ‬تكون‭ ‬أنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬قادرة‭ ‬على‭ ‬العمل‭ ‬بصورة‭ ‬موثوق‭ ‬بها،‭ ‬من‭ ‬ناحية‭ ‬المعالجات‭ ‬والعمليات‭ ‬والنتائج،‭ ‬بحيث‭ ‬يعتمد‭ ‬عليها،‭ ‬وعلى‭ ‬دقة‭ ‬نتائجها‭ ‬في‭ ‬العمل‭.‬
6‭ ‬
الأمن‭ ‬والخصوصية‭:‬‭ ‬يجب‭ ‬أن‭ ‬تتوفر‭ ‬لأنظمة‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬القدرة‭ ‬على‭ ‬العمل‭ ‬بصورة‭ ‬مؤمنة‭ ‬ضد‭ ‬عمليات‭ ‬الاختراق‭ ‬والتسلل‭ ‬والتلاعب‭ ‬من‭ ‬قبل‭ ‬الآخرين،‭ ‬واحترام‭ ‬خصوصية‭ ‬المستخدمين‭ ‬ولا‭ ‬تنتهكها‭.‬
وتجدر‭ ‬الإشارة‭ ‬إلى‭ ‬أن‭ ‬قضايا‭ ‬مبادئ‭ ‬وأخلاقيات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬ليست‭ ‬بالأمر‭ ‬الجديد،‭ ‬فهي‭ ‬محل‭ ‬جدل‭ ‬ونقاش‭ ‬كبيرين‭ ‬على‭ ‬جميع‭ ‬المستويات‭ ‬منذ‭ ‬عدة‭ ‬أعوام‭ ‬سواء‭ ‬داخل‭ ‬مجتمع‭ ‬التكنولوجيا‭ ‬أو‭ ‬خارجه،‭ ‬وقد‭ ‬خصصت‭ ‬لبحث‭ ‬هذه‭ ‬القضايا‭ ‬مليارات‭ ‬الدولارات‭ ‬على‭ ‬مستوى‭ ‬المنظمات‭ ‬الدولية‭ ‬والجامعات‭ ‬والشركات‭ ‬التكنولوجية،‭ ‬ولكن‭ ‬ما‭ ‬أعاد‭ ‬ظهورها‭ ‬في‭ ‬الوقت‭ ‬الراهن‭ ‬التطور‭ ‬المتسارع‭ ‬في‭ ‬الأنظمة‭ ‬المستخدمة‭ ‬في‭ ‬عسكرة‭ ‬هذا‭ ‬الذكاء‭.‬
ويدرس‭ ‬الاتحاد‭ ‬الأوروبي‭ ‬حالياً‭ ‬تطبيق‭ ‬ضوابط‭ ‬تلزم‭ ‬مطوري‭ ‬تقنيات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬لضمان‭ ‬تطوير‭ ‬هذه‭ ‬التقنيات‭ ‬واستخدامها‭ ‬وفق‭ ‬أساليب‭ ‬أخلاقية،‭ ‬فيما‭ ‬كشفت‭ ‬الإدارة‭ ‬الأمريكية‭ ‬مع‭ ‬بداية‭ ‬العام‭ ‬الجاري‭ ‬2020‭ ‬النقاب‭ ‬عن‭ ‬مجموعة‭ ‬من‭ ‬القواعد‭ ‬التي‭ ‬يجب‭ ‬على‭ ‬الوكالات‭ ‬الفيدرالية‭ ‬اتباعها‭ ‬عند‭ ‬تصميم‭ ‬سياسات‭ ‬الذكاء‭ ‬الاصطناعي‭.‬

WhatsApp
Al Jundi

الرجاء استخدام الوضع العمودي للحصول على أفضل عرض