ذ

التزييف العميق يقحم الذكاء الاصطناعي بعالم الجريمة

Share on email
Share on facebook
Share on linkedin
Share on whatsapp
Share on twitter

كشف تقرير حديث صدر مطلع أغسطس الماضي عن كلية لندن الجامعية أن تقنية “التزييف العميق” (Deep fake) تصدرت قائمة التقنيات التكنولوجية التي تستخدم إمكانيات الذكاء الاصطناعي في مجال الجريمة. وتعتمد هذه التقنية المتطورة على تطوير فيديوهات تنطوي على مقابلات ومواقف ومشاهدات وأحداث غير حقيقية، خاصة فيما يتعلق بمحاكاة خصائص المشاهير بدقة كبيرة جداً لدرجة يصعب اكتشافها، وتوظيفها في فيديوهات مزيفة تتحدث عن مواقف أو قضايا غير حقيقية.

ومن أجل تنفيذ التزييف أو الخداع بدرجة احترافية عالية، يتم دراسة نمط حديث لأي شخصية من حركات الوجه ولغة الجسد، ثم محاكاة نبرة الصوت باستخدام قاعدة عريضة من التسجيلات الصوتية، ثم تطوير حديث كامل مزيف لهذه الشخصية.
وحدد فريق البحث في كلية لندن لأول مرة 20 طريقة مختلفة لاستخدام المجرمين الذكاء الاصطناعي على مدى السنوات 15 المقبلة، ثم طلبوا من 31 خبيراً في الذكاء الاصطناعي تصنيفهم حسب المخاطر، بناءً على إمكانية الضرر والأموال التي يمكنهم كسبها وسهولة استخدامها ومدى صعوبة إيقاف المجرمين. وحصلت تقنية “التزييف العميق” التي يتم اعتمادها من قبل المجرمين لإنشاء مقاطع فيديو بواسطة الذكاء الاصطناعي لأشخاص حقيقيين يقومون بقول أشياء خيالية على المرتبة الأولى لسببين رئيسيين:
1 يصعب تحديدهم ومنعهم، حيث لا تزال طرق الكشف الآلي غير موثوق بها، كما أن تقنية “التزييف العميق” تتحسن في خداع العيون البشرية، حيث أدت مسابقة حديثة على فيسبوك لاكتشافها باستخدام الخوارزميات إلى اعتراف الباحثين بأنها مشكلة كبيرة لم يتم حلها.
2 يمكن استخدام تقنية “التزييف العميق في مجموعة متنوعة من الجرائم والأفعال السيئة، بدءاً من تشويه سمعة الشخصيات العامة إلى الحصول على الأموال من الجمهور عن طريق انتحال هوية الأشخاص.
وضربت كلية لندن مثالاً بانتشار فيديو مفبرك لـ”نانسي بيلوسي” رئيسة مجلس النواب الأمريكي، تبدو فيه مخمورة للغاية، كما ساعدت تقنية “التزييف العميق” المجرمين على سرقة ملايين الدولارات. بالإضافة إلى ذلك، يخشى الباحثون من أن هذه التقنية ستجعل الناس لا يثقون في الأدلة السمعية والبصرية، حيث سيُحدث ذلك ضرراً مجتمعياً كبيراً.
وقال مؤلف الدراسة الدكتور “ماثيو كالدويل” (Matthew Caldwell): “كلما زادت حياتنا على الإنترنت، زادت المخاطر، وعلى عكس العديد من الجرائم التقليدية، يمكن بسهولة مشاركة الجرائم في العالم الرقمي وتكرارها وحتى بيعها، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة، وهذا يعني أن المجرمين قد يكونون قادرين على الاستعانة بمصادر خارجية في الجوانب الأكثر تحدياً لجرائمهم القائمة على الذكاء الاصطناعي”.
وحددت الدراسة أيضاً خمسة تهديدات رئيسية أخرى بجرائم الذكاء الاصطناعي: المركبات بدون سائق كأسلحة، والتصيد الاحتيالي، وجمع البيانات عبر الإنترنت للابتزاز، والهجمات على الأنظمة التي يسيطر عليها الذكاء الاصطناعي، والأخبار المزيفة.
لكن الباحثين لم يكونوا قلقين بشكل مفرط من (burglar bots) التي تدخل المنازل من خلال صناديق الرسائل ولوحات القطط، حيث يسهل التقاطها. كما صنفوا المطاردة بمساعدة الذكاء الاصطناعي على أنها جريمة ذات قلق منخفض على الرغم من أنها ضارة للغاية للضحايا لأنها لا تستطيع العمل على نطاق واسع. وأبدى الباحثون قلقهم حيال مخاطر تقنية “التزييف العميق”، فلطالما استحوذت هذه التكنولوجيا على العناوين منذ ظهور المصطلح على “رديت” (Reddit) في عام 2017، ولكن لم يتم تحقيق سوى القليل من المخاوف حتى الآن، ومع ذلك، يعتقد الباحثون أنه من المقرر أن تتغير الأمور مع تطور التكنولوجيا ويصبح الوصول إلى تقنية التزييف العميق أكثر سهولة.

المصادر والمراجع
تقرير لكلية لندن الجامعية
www.ucl.ac.uk/news/2020/aug/deepfakes-ranked-most-serious-ai-crime-threat

WhatsApp
Al Jundi

الرجاء استخدام الوضع العمودي للحصول على أفضل عرض