دراسة تحذر من القدرات الخارقة للذكاء الاصطناعي

دراسة تحذر من القدرات الخارقة للذكاء الاصطناعي

كشفت دراسة حديثة أن ثورة الذكاء الاصطناعي التي نعيشها اليوم يمكن أن تحدث مستقبلاً على مستوى العالم انتفاضة لن يتمكن أحد من إيقافها، في حال تمكن البشر من تطوير روبوتات تعمل بالذكاء الاصطناعي الفائق.

وصمم فريق من العلماء الدوليين من بينهم علماء من مركز البشر والآلات في معهد «ماكس بلانك» للتنمية البشرية، خوارزمية نظرية للاحتواء، بهدف التأكد من أن نظاماً فائق الذكاء لا يمكن أن يؤذي البشر تحت أي ظرف من الظروف، عن طريق محاكاة الذكاء الاصطناعي ومنعه من التدمير.

وأظهرت نتائج الدراسة أن الخوارزميات الحالية لا تملك القدرة على إيقاف الذكاء الاصطناعي، لأن توجيه النظام فائق الذكاء لعدم التدمير من شأنه أن يوقف العمليات الخوارزمية نفسها عن غير قصد.

التحكم في الذكاء الاصطناعي

وبحسب الدراسة، فإن التحكم في الذكاء الاصطناعي الخارق يتطلب معرفة تتجاوز الفهم البشري. وسيكون من الضروري تطوير محاكاة لهذا الذكاء الفائق قابلة للتحليل. ولكن إذا لم يعد البشر قادرين على فهم طبيعة هذا الذكاء، فمن المستحيل إنشاء مثل هذه المحاكاة.
كما أنه وبمجرد أن يعمل نظام الكمبيوتر بمستوى ذكاء أعلى من مطوريه، فلن يعود بالإمكان وضع أية قيود عليه أو التحكم فيه.

وقال إياد رهوان، مدير مركز البشر والآلات في معهد «ماكس بلانك» للتنمية البشرية: “إذا قام نظام فائق الذكاء بإيذاء البشر، فلن يمكن معرفة ما إذا كانت خوارزمية الاحتواء لا تزال تقوم بتحليل التهديد، أو ما إذا ستكون قد توقفت عن محاولة احتواء الذكاء الاصطناعي الضار. لذلك فإن هذا التهديد المُحتمل يجعل من خوارزمية الاحتواء غير قابلة للاستخدام”.

واستخدم فريق الباحثين نظرية مشكلة التوقف، التي طرحها مؤسس علم الحاسوب الحديث «آلانتورنغ» في عام 1936، والتي تركز على مسألة ما إذا كان برنامج الحاسوب سيصل إلى نتيجة وسيجيب عن المشكلة، والتي تكون في هذه الحالة هي التوقف، أم أنه سيستمر في البحث عن إجابة إلى ما لا نهاية.

الذكاء الاصطناعي.. نعمة أم نقمة؟

وصمم الباحثون في دراستهم خوارزمية احتواء نظرية تضمن أن الذكاء الاصطناعي الفائق لا يمكن أن يؤذي البشر تحت أي ظرف من الظروف، من خلال محاكاة سلوك الذكاء الاصطناعي أولاً وإيقافه إذا اعتبر ضاراً. لكن التحليل الدقيق يُظهر أنه في النموذج الحالي للحوسبة لا يمكن بناء مثل هذه الخوارزمية.

وبناءً على ما سبق من معطيات، فإن مشكلة الاحتواء غير قابلة للتنفيذ من خلال الكمبيوتر، ولا يمكن لأي خوارزمية واحدة إيجاد حل لتحديد ما إذا كان الذكاء الاصطناعي سيؤدي إلى ضرر للعالم.

واكتشف الباحثون أن العالم ربما لا يعرف حتى متى وصلت أنظمة الذكاء الاصطناعي إلى مرحلة الذكاء الفائق، لأن تحديد ما إذا كانت الآلة تُظهر ذكاءً متفوقاً على البشر هو في نفس مجال مشكلة الاحتواء، التي لم تتمكن الخوارزمية من تحليلها.

المصادر والمراجع:
رابط المصدر 1 | رابط المصدر 2

Instagram
WhatsApp
Al Jundi

الرجاء استخدام الوضع العمودي للحصول على أفضل عرض