Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

تظهر التزييفات الصوتية العميقة كسلاح مفضل في تضليل الانتخابات

[ad_1]

تظهر التزييفات الصوتية العميقة كأداة جديدة قوية في حرب المعلومات خلال عام من الانتخابات الكبيرة في جميع أنحاء العالم، مع انتشار أدوات استنساخ الصوت التي تعمل بالذكاء الاصطناعي عبر الإنترنت.

قال مكتب المدعي العام في نيو هامبشاير، يوم الاثنين، إنه يحقق في احتمال قمع الناخبين، بعد تلقي شكاوى تفيد بأن صوتًا “مصطنعًا” يشبه الرئيس الأمريكي جو بايدن كان يتصل بالناخبين لتشجيعهم على عدم التصويت في الانتخابات التمهيدية الرئاسية بالولاية. .

وحذر الباحثون أيضًا من أن استخدام المقاطع الصوتية الواقعية ولكن المزيفة التي تحاكي السياسيين والقادة من المرجح أن ينتشر، في أعقاب الحالات التي وقعت في عام 2023 حيث تم إنشاء صوت اصطناعي مزعوم للتأثير على السياسة والانتخابات في المملكة المتحدة والهند ونيجيريا والسودان وإثيوبيا وأفريقيا. سلوفاكيا.

أصبحت التزييفات الصوتية العميقة شكلاً شائعًا بشكل متزايد من أشكال التضليل، وفقًا للخبراء، بسبب ظهور أدوات الذكاء الاصطناعي الرخيصة والفعالة من الشركات الناشئة مثل ElevenLabs وResemble AI وRespeecher وReplica Studios. وفي الوقت نفسه، أعلن الذراع البحثي لشركة مايكروسوفت عن تطوير نموذج جديد للذكاء الاصطناعي للشركة، VALL-E، والذي يمكنه استنساخ الصوت من ثلاث ثوانٍ فقط من التسجيلات.

“عندما يتعلق الأمر بالتلاعب البصري، فإن الجميع معتادون على برنامج Photoshop أو على الأقل يعلمون بوجوده،” هنري أجدر، خبير الذكاء الاصطناعي والتزييف العميق ومستشار Adobe وMeta وEY. “هناك وعي أقل بكثير حول كيفية التلاعب بالمواد الصوتية، لذلك، بالنسبة لي، يجعلنا عرضة للخطر.”

في سبتمبر/أيلول، كشفت NewsGuard، التي تقيّم جودة المواقع الإخبارية ومصداقيتها، عن شبكة من حسابات TikTok التي تتظاهر بأنها منافذ إخبارية مشروعة، وتتميز بتعليقات صوتية مولدة بالذكاء الاصطناعي تروج لنظريات المؤامرة والمعلومات السياسية المضللة. وشمل ذلك صوتًا محاكيًا للرئيس الأمريكي السابق باراك أوباما وهو يدافع عن نفسه ضد مزاعم لا أساس لها من الصحة تربطه بوفاة رئيس الطهاة الخاص به.

وقالت NewsGuard إن المقاطع الصوتية المزيفة يبدو أنها تم إنشاؤها بواسطة أداة أتاحتها شركة ElevenLabs المدعومة من Andreessen Horowitz، بينما حصدت المقاطع مئات الملايين من المشاهدات.

“أكثر من 99 بالمائة من المستخدمين على منصتنا ينشئون محتوى مثيرًا للاهتمام ومبتكرًا ومفيدًا، ولكننا ندرك أن هناك حالات من سوء الاستخدام، ونحن نعمل باستمرار على تطوير وإصدار ضمانات للحد منها”، قالت ElevenLabs في ذلك الوقت. التقرير.

تقدم شركة ElevenLabs، التي تأسست قبل عامين من قبل الموظفين السابقين في Google وPalantir، بيوتر دابكوفسكي وماتي ستانيشفسكي، أدوات بدائية مجانية لتوليد الصوت باستخدام الذكاء الاصطناعي بنقرة على الفأرة. تتراوح الاشتراكات من دولار واحد شهريًا إلى 330 دولارًا شهريًا وأكثر لأولئك الذين يبحثون عن عروض أكثر تطوراً.

وقد تم تشجيع مرتكبي التضليل من خلال أدوات الذكاء الاصطناعي التي ابتكرتها شركة ElevenLabs، والتي حولت جودة الصوت الاصطناعي من كونه مفككًا وروبوتيًا، إلى أكثر طبيعية مع التصريف الصحيح والتنغيم والعواطف، وفقًا لأجدر.

“في الأساس، [ElevenLabs] وقال: “لقد غيرت اللعبة سواء من حيث الواقعية التي يمكن تحقيقها، خاصة مع وجود كمية صغيرة من البيانات”.

لقد شهد سوق أدوات تحويل النص إلى كلام توسعًا كبيرًا خلال العام الماضي. يقدم بعضها، مثل Voice AI، تطبيقات مجانية ويسوق تقنيتها لاستخدامها في الدبلجة للمزاح. وتفرض شركات أخرى، مثل Replica Studios وRespeecher، رسومًا رمزية على المبدعين أو صانعي الأفلام أو مطوري الألعاب.

غالبًا ما يكون من غير الواضح ما هي الشركات التي يتم استخدامها لإنشاء صور مزيفة ذات دوافع سياسية لأن معظم أدوات الكشف لا يمكنها تحديد المصدر الأصلي. لكن الانتشار المتزايد لمثل هذه المنتجات التي تعمل بالذكاء الاصطناعي يؤدي إلى القلق بشأن الانتهاكات المحتملة في مجال غير منظم.

في العام الماضي، حذرت وكالات الاستخبارات الأمريكية في تقرير لها من أن “هناك زيادة هائلة في عمليات الاحتيال الشخصية باستخدام الذكاء الاصطناعي نظرا لإطلاق نماذج متطورة ومدربة تدريبا عاليا لاستنساخ الصوت بالذكاء الاصطناعي”.

وبعيدًا عن عمليات الاحتيال ذات الدوافع المالية، فإن الخبراء السياسيين يدقون الآن ناقوس الخطر بشأن المقاطع الصوتية واسعة الانتشار والتزييف العميق بالإضافة إلى استخدام التزييف العميق في المكالمات الآلية أو الحملات. وقال إيه جي ناش، نائب الرئيس وزميل الاستخبارات المتميز في مجموعة زيروفوكس للأمن السيبراني: “يمكنك بناء حملة قوية وواسعة النطاق من المعلومات المضللة بتكلفة زهيدة للغاية من خلال استهداف الأشخاص عبر الهاتف”.

وقد سعت بعض هذه الشركات بشكل استباقي إلى إيجاد طرق أخرى لمواجهة المعلومات المضللة. أصدرت Microsoft بيانًا أخلاقيًا، يدعو المستخدمين إلى الإبلاغ عن أي إساءة استخدام لأداة الصوت المدعومة بالذكاء الاصطناعي، مشيرًا إلى أنه يجب على المتحدث الموافقة على استخدام صوتهم مع الأداة. قامت ElevenLabs ببناء أدوات الكشف الخاصة بها لتحديد التسجيلات الصوتية التي يتم إجراؤها بواسطة أنظمتها. ويستكشف آخرون، مثل Resemble، ختم المحتوى الناتج عن الذكاء الاصطناعي بعلامات مائية غير مسموعة.

خلال انتخابات عام 2023 في نيجيريا، انتشر مقطع تم التلاعب به بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي “يُزعم أنه يورط مرشحًا رئاسيًا معارضًا في خطط لتزوير عملية الاقتراع”، وفقًا لمنظمة فريدوم هاوس لحقوق الإنسان.

وفي سلوفاكيا، انتشر على نطاق واسع تسجيل صوتي مزيف لمرشح المعارضة ميشال سيميتشكا وهو يخطط لتزوير الانتخابات قبل أيام فقط من الانتخابات الرئاسية في البلاد في سبتمبر.

ولإثارة المزيد من الارتباك، شجبت مجموعات وأفراد في الهند وإثيوبيا التسجيلات الصوتية باعتبارها مزيفة، فقط لكي يدعي باحثون مستقلون آخرون ومدققو الحقائق أنها أصلية.

وحذر الخبراء من أن المشكلة المرتبطة بذلك هي أن اكتشاف الصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي غالبًا ما يكون أصعب من اكتشاف الفيديو. تقول كاتي هارباث، مسؤولة الشؤون العالمية في Duco Experts والمديرة السابقة للسياسة العامة في Meta: “لديك عدد أقل بكثير من القرائن السياقية التي يمكنك محاولة حلها”.

غالبًا ما تكون هناك مؤشرات مرئية تشير إلى أن الفيديو غير حقيقي، مثل وجود خلل في الجودة أو ظلال غريبة أو عدم وضوح أو حركات غير طبيعية.

“المزايا مع الصوت [for bad actors] قال ناش: “هل يمكنك أن تكون أقل دقة؟” “بالنسبة للعيوب، يمكنك تغطيتها بضوضاء خلفية وموسيقى مكتومة.” على سبيل المثال، بدا التزييف العميق لزعيم المعارضة في المملكة المتحدة، السير كير ستارمر، وهو يوبخ أحد الموظفين، كما لو أنه تم تسجيله في مطعم مزدحم.

هناك سوق للكشف بمساعدة التكنولوجيا آخذ في الظهور لمواجهة هذه المشكلة. أعلنت مجموعة الأمن السيبراني McAfee هذا الشهر عن Project Mockingbird، وهي أداة تبحث عن الحالات الشاذة في أنماط الصوت والترددات والسعة، قبل منح المستخدمين احتمالية ما إذا كان الصوت حقيقيًا أم مزيفًا. وقال ستيف جروبمان، كبير مسؤولي التكنولوجيا في شركة McAfee، إن أداة الكشف الخاصة بها تتمتع بفعالية تبلغ حوالي 90 في المائة.

وأشار نيكولا مولر، عالم أبحاث التعلم الآلي في Fraunhofer AISEC، إلى أن إضافة الموسيقى عمدًا أو التقليل من جودة الصوت يتعارض أيضًا مع دقة أدوات الكشف.

تسعى المنصات عبر الإنترنت جاهدة لاحتواء المشكلة. واجهت Meta انتقادات لأنها تحظر بشكل صريح مقاطع الفيديو التي تم التلاعب بها والمصممة للتضليل، ولكن لا يبدو أن نفس القواعد تنطبق على الصوت. وقال ميتا إن التزييف الصوتي العميق كان مؤهلاً للتحقق من صحته، وسيتم تصنيفه وتصنيفه في خلاصات المستخدمين عند العثور عليه. تستثمر TikTok أيضًا في قدرات وضع العلامات والكشف.

قال روبرت وايزمان، رئيس مجموعة Public Citizen غير الربحية للدفاع عن المستهلك: “إن التزييف العميق في نيو هامبشاير هو تذكير بالطرق العديدة التي يمكن أن تؤدي بها التزييف العميق إلى زرع الارتباك وإدامة الاحتيال”. “إن لحظة التزييف السياسي العميق هنا. يجب على صناع السياسات أن يسارعوا إلى توفير الحماية وإلا فإننا سنواجه فوضى انتخابية”.

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى