اقترح الاتحاد الأوروبي في بروكسل منتصف إبريل الماضي حزمة قواعد لاستخدامات الذكاء الاصطناعي عالية المخاطر. وتنص المقترحات على كبح الاستخدامات عالية الخطورة للذكاء الاصطناعي مثل المسح المباشر للوجه الذي قد يهدد سلامة الناس أو حقوقهم. وتشمل المقترحات التي كشفت عنها المفوضية حظراً مبدئياً على «تحديد الهوية». كما تتضمن مسودة اللوائح ضوابط بشأن استخدام التكنولوجيا سريعة التوسع في أنشطة مثل اختيارات المدارس أو الوظيفة أو للمتقدمين للحصول على قروض. كما أنها تحظر الركون للذكاء الاصطناعي بشكل تام في حالات محددة، مثل «التقييم الاجتماعي» والأنظمة المستخدمة للتلاعب بالسلوك البشري. وتعتبر المقترحات هي أحدث خطوة للاتحاد الأوروبي لتحفيز المعايير العالمية لتنظيم التكنولوجيا.
ويقول مسؤولو الاتحاد الأوروبي في بروكسل إنهم يتخذون «نهجاً قائماً على المخاطر» حيث يحاولون الموازنة بين الحاجة إلى حماية الحقوق مثل خصوصية البيانات والحاجة إلى تشجيع الابتكار. وقالت «مارجريت فيستاجر»، نائبة رئيسة المفوضية الأوروبية للعصر الرقمي، في بيان: «بهذه القواعد التاريخية، يقود الاتحاد الأوروبي تطوير معايير عالمية جديدة للتأكد من إمكانية الوثوق بالذكاء الاصطناعي». «من خلال وضع المعايير، يمكننا تمهيد الطريق للتكنولوجيا الأخلاقية في جميع أنحاء العالم والتأكد من أن الاتحاد الأوروبي يظل قادراً على المنافسة على طول الطريق».
تتضمن المقترحات أيضاً حظراً مبدئياً على «التعرف على القياسات الحيوية عن بُعد»، مثل استخدام التعرف المباشر على الوجه على حشود الأشخاص في الأماكن العامة، مع استثناءات فقط لأغراض إنفاذ القانون المحددة بدقة مثل البحث عن طفل مفقود أو شخص مطلوب.
وتنص مسودة اللوائح على أنه يجب تصنيف روبوتات المحادثة والتزييف العميق حتى يعرف الناس أنهم يتفاعلون مع جهاز.
