خطر التزييف العميق ليس كما تعتقد
ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
أحد أكثر الذعر الأخلاقي صراخًا لدينا هذه الأيام هو الخوف من أن يؤدي التزييف العميق المدعوم بالذكاء الاصطناعي إلى تدهور الديمقراطية. نصف سكان العالم يدلون بأصواتهم في 70 دولة هذا العام. ويعتقد نحو 1500 خبير استطلع المنتدى الاقتصادي العالمي آراءهم في أواخر عام 2023 أن المعلومات الخاطئة والمعلومات المضللة كانت أشد خطر عالمي على مدى العامين المقبلين. وحتى المخاطر المناخية المتطرفة والنزاعات المسلحة بين الدول كانت تعتبر أقل تهديدا.
ولكن، إذا كتبتها بلطف، فإن مخاوفهم تبدو مبالغ فيها. وهذه ليست المرة الأولى التي قد يكون فيها إجماع دافوس خاطئاً.
لقد كان الخداع سمة من سمات الطبيعة البشرية منذ أن قام الإغريق بإلقاء حصان خشبي خارج أسوار طروادة. وفي وقت أقرب إلى الزمن الحاضر، كان لنشر صحيفة ديلي ميل رسالة زينوفييف ــ وهي وثيقة مزورة يُزعم أنها من رئيس الكومنترن السوفييتي ــ تأثيراً كبيراً على الانتخابات العامة البريطانية في عام 1924.
وبطبيعة الحال، كان ذلك قبل عصر الإنترنت. والقلق الآن هو أن قوة الذكاء الاصطناعي قد تعمل على تصنيع مثل هذه المعلومات المضللة. لقد خفضت شبكة الإنترنت تكلفة توزيع المحتوى إلى الصفر. يعمل الذكاء الاصطناعي التوليدي على خفض تكلفة إنشاء المحتوى إلى الصفر. وقد تكون النتيجة كمية هائلة من المعلومات التي يمكن، على حد تعبير الخبير الاستراتيجي السياسي الأمريكي ستيف بانون، أن “تغرق المنطقة بالقذارة”.
تشكل تقنية التزييف العميق (Deepfakes) – وهي انتحال حقيقي للصوت أو الصورة أو الفيديو بواسطة الذكاء الاصطناعي – تهديدًا خاصًا. تعد أحدث الصور الرمزية التي أنشأتها شركات الذكاء الاصطناعي الرائدة جيدة جدًا لدرجة أنه لا يمكن تمييزها عن الصورة الحقيقية. في عالم من “الأشخاص المزيفين”، كما أسماهم الفيلسوف الراحل دانييل دينيت، من الذي يمكنك الوثوق به عبر الإنترنت؟ ولا يكمن الخطر في أن يثق الناخبون في الأشخاص غير الجديرين بالثقة، بل في عدم ثقتهم في الأشخاص الجديرين بالثقة.
ومع ذلك، حتى الآن على الأقل، لا تتسبب تقنية التزييف العميق في إحداث قدر كبير من الضرر السياسي الذي كان يُخشى منه. تزعم بعض الشركات الناشئة في مجال الذكاء الاصطناعي أن المشكلة تتعلق بالتوزيع أكثر من التوليد، ونقل المسؤولية إلى شركات المنصات العملاقة. وفي مؤتمر ميونيخ الأمني في فبراير، تعهدت 20 من شركات التكنولوجيا الكبرى، بما في ذلك جوجل وميتا وتيك توك، بخنق التزييف العميق المصمم للتضليل. من الصعب حتى الآن معرفة مدى وفاء الشركات بوعودها، لكن النقص النسبي في الفضائح أمر مشجع.
وكانت حركة الاستخبارات مفتوحة المصدر، والتي تضم جحافل من المحققين السيبرانيين، فعالة أيضًا في فضح المعلومات المضللة. أنشأ أكاديميون أمريكيون قاعدة بيانات لحوادث التزييف العميق السياسي لتتبع هذه الظاهرة وفضحها، حيث سجلوا 114 حالة حتى يناير/كانون الثاني الماضي. وربما يكون الاستخدام المتزايد لأدوات الذكاء الاصطناعي من قبل ملايين المستخدمين يؤدي في حد ذاته إلى تعميق الفهم العام للتكنولوجيا، وتحصين الناس ضد التزييف العميق.
وكانت الهند البارعة في مجال التكنولوجيا، والتي أجرت للتو أكبر انتخابات ديمقراطية في العالم بمشاركة 642 مليون شخص أدلوا بأصواتهم، بمثابة حالة اختبار مثيرة للاهتمام. كان هناك استخدام واسع النطاق لأدوات الذكاء الاصطناعي لانتحال شخصيات المرشحين والمشاهير، والحصول على تأييد من السياسيين القتلى، وإلقاء الوحل على المعارضين في دوامة الديمقراطية الهندية السياسية. ومع ذلك، لا يبدو أن الانتخابات قد تعرضت للتشويه بسبب التلاعب الرقمي.
وخلص اثنان من خبراء كلية كينيدي بجامعة هارفارد، فاندينيكا شوكلا وبروس شناير، الذين درسوا استخدام الذكاء الاصطناعي في الحملة، إلى أن التكنولوجيا تم استخدامها في الغالب بشكل بناء.
على سبيل المثال، استخدم بعض السياسيين منصة بهاشيني الرسمية وتطبيقات الذكاء الاصطناعي لدبلجة خطاباتهم إلى اللغات الرسمية في الهند البالغ عددها 22 لغة، مما أدى إلى تعميق الروابط مع الناخبين. وكتبوا: “إن قدرة التكنولوجيا على إنتاج صور مزيفة عميقة بدون موافقة أي شخص يمكن أن تجعل من الصعب التمييز بين الحقيقة والخيال، لكن استخداماتها التوافقية من المرجح أن تجعل الديمقراطية أكثر سهولة في الوصول إليها”.
هذا لا يعني أن استخدام التزييف العميق أمر حميد دائمًا. لقد تم استخدامها بالفعل للتسبب في أضرار جنائية ومشاكل شخصية. في وقت سابق من هذا العام، تعرضت شركة الهندسة البريطانية Arup للاحتيال وسلب 25 مليون دولار في هونغ كونغ بعد أن استخدم المحتالون مقطع فيديو مستنسخًا رقميًا لأحد كبار المديرين لطلب تحويل مالي. في هذا الشهر، تم تداول صور صريحة مزيفة لـ 50 فتاة من مدرسة Bacchus Marsh Grammar في أستراليا عبر الإنترنت. ويبدو أن صور الفتيات قد تم رفعها من منشورات وسائل التواصل الاجتماعي والتلاعب بها لإنشاء الصور.
غالبًا ما يكون المجرمون من أوائل المتبنين لأي تقنية جديدة. إن استخدامهم الشرير للتزييف العميق لاستهداف الأفراد هو ما يجب أن يثير قلقنا أكثر. من المرجح أن يتم الكشف عن الاستخدامات العامة للتكنولوجيا لأغراض شائنة ومواجهتها بسرعة. ويتعين علينا أن نقلق بشأن السياسيين الذين يتلفظون بالهراء الحقيقي أكثر من قلقنا بشأن الصور الرمزية المزيفة للذكاء الاصطناعي التي تولد رطانة زائفة.
john.thornhill@ft.com