Artificial,Intelligence,,Technology,3d,Illustration

اليونسكو تدعو الدول إلى تطبيق توصيتها بشأن الذكاء الاصطناعي

دعت منظمة اليونسكو بلدان العالم إلى تطبيق توصيتها الصادرة في عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك ومئات الخبراء إلى وقف تطوير هذه البرامج لمدة ستة أشهر محذرين من “مخاطر كبيرة على البشرية”.

وقالت المديرة العامة لليونسكو أودري أزولاي في بيان “يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر. لقد وضعت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي الإطار التقنيني المناسب”.

الاستخدام الأخلاقي للذكاء الاصطناعي

وكانت الدول الأعضاء الـ193 في هذه المنظمة التابعة للأمم المتحدة أقرت بالإجماع في نوفمبر 2021 إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي، وهي “خريطة طريق للبلدان، تصف طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا”، بحسب منظمة اليونسكو.

وصدر هذا النص بعد جهود استمرت ثلاث سنوات، وهو يفصّل الإجراءات التي يتعين القيام بها، ولاسيما إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته، أو “ضمان الأمن الكامل للبيانات الشخصية والحساسة” أو حتى تثقيف الجماهير حول موضوعها.

وأكدت أزولاي أن “الوقت حان لتنفيذ الاستراتيجيات والأنظمة على الصعيد الوطني، وعلينا أن نحيل الأقوال إلى أفعال”، معتبرة أن “من الواضح أنّ التنظيم الذاتي للقطاع غير كاف لتجنّب هذه الآفات الأخلاقية”.

وأشارت المنظمة الأممية إلى أن أكثر من 40 بلداً “من جميع مناطق العالم” تعمل مع اليونسكو “لتطوير ضوابط وموازين الذكاء الاصطناعي على المستوى الوطني، استناداً إلى التوصية”.

ودعت اليونسكو جميع البلدان للانضمام إلى الحركة التي تقودها لتطوير ذكاء اصطناعي “مقامه الأخلاق”، مشيرة إلى أن “تقريراً مرحلياً سيُقدّم خلال منتدى اليونسكو العالمي لأخلاقيات الذكاء الاصطناعي الذي يُقام في سلوفينيا في ديسمبر2023”.

التوقف عن تطوير أبحاث الذكاء الاصطناعي

وقد وقّع مئات الخبراء العالميين، بينهم إيلون ماسك رئيس تويتر ومؤسس شركتي سبايس إكس وتيسلا، والمؤسس المشارك لشركة “آبل” ستيف فوزنياك، دعوة للتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعي.

وفي العريضة، طالب الخبراء بوقف مؤقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج”.

وسأل هؤلاء “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والأكاذيب؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين”.

Twitter
WhatsApp
Al Jundi

الرجاء استخدام الوضع العمودي للحصول على أفضل عرض