هل تتجه تقنيات الذكاء الاصطناعي إلى أن تصبح «واعية»؟ أقيل أحد مهندسي «غوغل» من وظيفته لتأكيده ذلك، ما أثار جدلاً خارج سيليكون فالي، في شأن هذا الموضوع الذي لم يعد مجرّد خيال علمي.
وفي التفاصيل، أن الموظف بلاك لوموان كتب في مقال نُشر على موقع «ميديوم» في يونيو الماضي، أن «لمدا» (LaMDA)، وهو برنامج معلوماتي من غوغل مخصص لإنشاء روبوتات للمحادثة (chatbots)، «يتمتع بوضوح تام في شأن ما يريده وما يعتبره حقوقه كشخص».
وقوبل هذا الرأي بردود فعل واسعة النطاق، سواء من شركة التكنولوجيا العملاقة أو من الأوساط العلمية، تراوحت بين حدّين، أسوأهما وصفه بأنه سخيف، وأحسنهما رأى أنه سابق لأوانه.
فالبرامج القائمة على تعلم الآلة (أو ما يعرف بـ«ماشين ليرنيننغ») «مدربة» على أساس مجموعة بيانات تتناول مفاهيم الوعي أو الهوية، وهي بالتالي قادرة على إعطاء انطباع وهمي مُضلِل.
وأشارت الأستاذة سوزان شنايدر إلى أن «البرامج التي يمكنها الوصول إلى الإنترنت تستطيع الإجابة عن أي سؤال»، إلا أن هذا الواقع لا يجعلها تتمتع بصدقية.
غير أن شنايدر التي أسست مركز أبحاث في جامعة «فلوريدا أتلانتيك»، لا تؤيد العقوبات المفروضة على مهندس غوغل، وهي لاحظت أن غوغل ميّالة إلى «محاولة تجاهل القضايا المتعلقة بالأخلاقيات» مع أن «ثمة حاجة إلى مناقشات عامة حول هذه الموضوعات الشائكة»، بحسب رأيها.
وقال الناطق باسم غوغل براين غابرييل «تحادث مئات الباحثين والمهندسين مع لمدا، لكنّ أياً منهم، على حد علمنا، لم يطالعنا بهذه التأكيدات، ولا اعتبر أن لبرنامج لمدا طابعاً بشرياً كما فعل بلاك لوموان».
قوة الخيال
وذكّر أستاذ الفلسفة في جامعة تورنتو الكندية مارك كينغويل بأن فكرة الكيان غير البشري الذي تُبعث فيه الحياة «موجودة في خيالنا»، من بينوكيو إلى فيلم «هير» (قصة علاقة رومانسية مع روبوت محادثة).
واعتبر أن «من الصعب تالياً تحديد المسافة التي تفصل بين ما نتخيله ممكناً وبين ما هو قائم فعلاً».
ودرجت العادة على تقييم الذكاء الاصطناعي وفقاً لاختبار تورينغ، فإذا أقام مَن يُجري الاختبار محادثة مع جهاز كمبيوتر من دون أن يدرك أنه لا يتحدث إلى إنسان، تكون الآلة قد «نجحت».
لكنّ «تحقيق ذلك سهل جداً على الذكاء الاصطناعي في سنة 2022»، بحسب كينغويل.
وقالت الخبيرة في لغويات الكمبيوتر إميلي بندر «عندما نجد أمامنا سلسلة من الكلمات في لغة نتحدثها نعتقد أننا ندرك الروح التي تولد هذه الجمل»، حتى إن العلماء قادرون على إعطاء شخصية لبرنامج ذكاء اصطناعي.
وأوضح أستاذ علوم الكمبيوتر بجامعة نورث كارولاينا شاشانك سريفاستافا أنه «من الممكن مثلاً جعل الذكاء الاصطناعي أشبه بشخص عصابي» من خلال تدريبه على المحادثات التي قد يجريها شخص مكتئب.
وفي حال دمج روبوت المحادثة بروبوت ذي شكل بشري وتعبيرات وجه فائقة الواقعية، أو إذا كان البرنامج يكتب قصائد أو يؤلف موسيقى، كما هي حال بعض البرامج راهناً، فإن حواسنا البيولوجية تنخدع بسهولة.
وقالت إميلي بندر «نحن نسبح في الضجيج الإعلامي الذي يتناول الذكاء الاصطناعي».
وأضافت أن «الكثير من المال يُستثمر في هذا المجال. لذا يشعر الموظفون في هذا القطاع بأنهم يعملون على شيء مهم وحقيقي وليست لديهم بالضرورة المسافة اللازمة» للحكم على الأمور.
كيف يمكننا إذاً أن نحدد على وجه اليقين ما إذا كان الكيان الاصطناعي قد أصبح يتمتع بمشاعر ووعي؟
قالت سوزان شنايدر «إذا نجحنا في استبدال الأنسجة العصبية بشرائح إلكترونية، فسيكون ذلك علامة على أن الآلات يمكن أن تكون واعية».
تابعت سوزان التقدم الذي أحرزته شركة «نورالينك» الناشئة التي أسسها إيلون ماسك لتصنيع غرسات الدماغ للأغراض الطبية، ولكن أيضاً «لضمان مستقبل البشرية كحضارة بالنسبة إلى الذكاء الاصطناعي»، على ما أوضح رئيس «تيسلا».
وبالتالي ينتمي الملياردير بدوره إلى رؤية تتخوف من إمكان أن تؤول السيطرة إلى آلات تتمتع بقدرات فائقة.
إلا أن مارك كينغويل رأى أن العكس هو الصحيح.
فإذا ظهر ذات يوم كيان مستقل قادر على إتقان لغة، وعلى «التحرّك من تلقاء نفسه ضمن بيئة معينة»، ولديه تفضيلات ونقاط ضعف، «سيكون من المهم عدم اعتباره عبداً… والعمل على حمايته».
ربما لم يتمكن بلايكلوموان من إقناع أحد بأن برنامج «لمدا» يتمتع بالوعي، لكنه أشعل مجدداً النقاش الذي بات يتخذ أكثر فأكثر طابعاً سياسياً، وأصبح ينظر إليه بدرجة أقل على أنه خيالي.
ماذا يريد «لمدا»؟ أجاب المهندس المقال «إنه يريد من غوغل أن يضع مصلحة الإنسانية أولاً، وأن يتم الاعتراف به كموظف وليس كملكية لشركة غوغل».
المصدر: وكالة الأنباء الفرنسية AFP