تساهم تقنية Deepfakes الخاصة بـ Elon Musk في خسائر احتيال بمليارات الدولارات في الولايات المتحدة
شاهدت الإعلان لأول مرة على فيسبوك. ثم مرة أخرى على TikTok. بعد رؤية ما بدا أنه إيلون ماسك من خلال تقديم فرصة استثمارية مرارًا وتكرارًا، اعتقدت هايدي سوان أن الأمر يجب أن يكون صحيحًا.
قال سوان: “بدا مثل إيلون ماسك تمامًا، وبدا مثل إيلون ماسك تمامًا واعتقدت أنه هو”.
اتصلت بالشركة التي تقف خلف الملعب وفتحت حسابًا بأكثر من 10000 دولار. اعتقدت العاملة في مجال الرعاية الصحية البالغة من العمر 62 عامًا أنها تقوم باستثمار ذكي في العملة المشفرة من رجل أعمال ومستثمر بقيمة مليارات الدولارات.
لكن سوان سرعان ما علمت أنها تعرضت للخداع من قبل موجة جديدة من لصوص التكنولوجيا الفائقة الذين يستخدمون الذكاء الاصطناعي لإنشاء صور مزيفة.
حتى عند النظر إلى مقاطع الفيديو الآن، ومعرفة أنها مزيفة، لا يزال سوان يعتقد أنها تبدو مقنعة.
وقالت: “إنهم ما زالوا يشبهون إيلون موسك”. “ما زالوا يبدون مثل إيلون ماسك.”
عمليات الاحتيال Deepfake آخذة في الارتفاع في الولايات المتحدة
مع تطور تكنولوجيا الذكاء الاصطناعي وشيوعها، أصبحت هذه الأنواع من عمليات الاحتيال أكثر شيوعًا.
وفق ديلويت، وهي مجموعة أبحاث مالية رائدة، ساهم المحتوى الناتج عن الذكاء الاصطناعي في خسائر احتيال تزيد قيمتها عن 12 مليار دولار في العام الماضي، ويمكن أن تصل إلى 40 مليار دولار في الولايات المتحدة بحلول عام 2027.
كلا لجنة التجارة الفيدرالية و مكتب الأعمال الأفضل أصدروا تحذيرات من أن عمليات الاحتيال العميق آخذة في الارتفاع.
أ يذاكر وجدت شركة Sensity للذكاء الاصطناعي أن Elon Musk هو أكثر المشاهير استخدامًا في عمليات الاحتيال العميق. أحد الأسباب المحتملة هو ثروته وريادة الأعمال. سبب آخر هو عدد المقابلات التي أجراها. كلما زاد المحتوى الخاص بشخص ما عبر الإنترنت، أصبح من الأسهل إنشاء مقاطع مزيفة مقنعة.
تشريح التزييف العميق
وفي جامعة شمال تكساس في دينتون، يستخدم البروفيسور كريستوفر ميردو أيضًا الذكاء الاصطناعي. لكنه يستخدمه لخلق الفن.
وقال ميردو: “لن تحل محل الفنون الإبداعية”. “سيؤدي ذلك إلى تعزيزها وتغيير الطريقة التي نفهم بها الأشياء التي يمكننا القيام بها في مجال الإبداع.”
على الرغم من أن ميردو يرى أن الذكاء الاصطناعي وسيلة للابتكار، إلا أنه يرى مخاطره.
أظهر ميردو لفريق CBS News Texas I-Team كيف يمكن للمحتالين التقاط مقطع فيديو حقيقي واستخدام أدوات الذكاء الاصطناعي لاستبدال حركات الصوت والفم للشخص، مما يجعله يبدو وكأنه يقول شيئًا مختلفًا تمامًا.
أدى التقدم التكنولوجي إلى تسهيل إنشاء مقاطع فيديو مزيفة بعمق. كل ما يحتاجه الشخص المطلع على الذكاء الاصطناعي هو إنشاء صورة ثابتة واحدة وتسجيل فيديو.
لإثبات ذلك، التقط ميردو مقطع فيديو للمراسل الاستقصائي بريان نيو لإنشاء صورة مزيفة لإيلون ماسك.
لا تعتبر مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي مثالية، ولكنها تحتاج فقط إلى أن تكون مقنعة بما يكفي لخداع الضحية المطمئنة.
وقال ميردو: “إذا كنت تحاول حقًا خداع الناس، فأعتقد أنه يمكنك القيام ببعض الأشياء السيئة حقًا بهذا”.
كيف يمكنك اكتشاف التزييف العميق؟
من السهل اكتشاف بعض الصور المزيفة أكثر من غيرها؛ يمكن أن تكون هناك علامات مثل حركات الشفاه غير الطبيعية أو لغة الجسد الغريبة. ولكن مع تطور التكنولوجيا، سيكون من الصعب معرفة ذلك بمجرد النظر.
هناك عدد متزايد من مواقع الويب التي تدعي أنها تستطيع اكتشاف التزييف العميق. باستخدام ثلاثة مقاطع فيديو مزيفة معروفة وثلاثة مقاطع أصلية، قام فريق CBS News Texas I-Team بإخضاع خمسة من هذه المواقع لاختبار غير علمي: البرامج العميقة, شهادة, DeepFake-O-Meter, حساسية و كاشف التزييف العميق.
في المجمل، حددت هذه الأدوات الخمس المتوفرة عبر الإنترنت بشكل صحيح مقاطع الفيديو التي تم اختبارها بنسبة 75% تقريبًا من الوقت. تواصل فريق I مع الشركات لإبلاغها بالنتائج؛ ردودهم أدناه.
البرامج العميقة
فشل Deepware، وهو موقع ويب مجاني الاستخدام، في البداية في الإبلاغ عن اثنين من مقاطع الفيديو المزيفة التي اختبرها فريق I-Team. وفي رسالة بالبريد الإلكتروني، قالت الشركة إن المقاطع المستخدمة كانت قصيرة للغاية، وأنه للحصول على أفضل النتائج، يجب أن تتراوح مدة تحميل مقاطع الفيديو بين 30 ثانية ودقيقة واحدة. حددت Deepware جميع مقاطع الفيديو الأطول بشكل صحيح. وبحسب الشركة فإن معدل اكتشافه يعتبر جيدًا للصناعة بنسبة 70%.
ال قسم الأسئلة الشائعة ينص موقع ويب Deepware على ما يلي: “لم يتم حل مشكلة التزييف العميق حتى الآن. وتشير نتائجنا إلى احتمال أن يكون مقطع فيديو معين مزيفًا عميقًا أم لا.”
كاشف التزييف العميق
حددت Deepfake Detector، وهي أداة تتقاضى 16.80 دولارًا شهريًا، أحد مقاطع الفيديو المزيفة على أنها “صوت طبيعي بنسبة 97٪”. وقالت الشركة، المتخصصة في اكتشاف الأصوات الناتجة عن الذكاء الاصطناعي، في رسالة بريد إلكتروني إن عوامل مثل الضوضاء في الخلفية أو الموسيقى يمكن أن تؤثر على النتائج، لكن معدل الدقة يبلغ حوالي 92%.
ردًا على سؤال حول التوجيه للمستهلكين العاديين، كتبت الشركة: “تم تصميم أداتنا لتكون سهلة الاستخدام. يمكن للمستهلكين العاديين بسهولة تحميل ملف صوتي على موقعنا على الويب أو استخدام ملحق المتصفح الخاص بنا لتحليل المحتوى مباشرة. ستعمل الأداة على تقديم تحليل للمساعدة في تحديد ما إذا كان مقطع الفيديو قد يحتوي على عناصر مزيفة باستخدام الاحتمالات، مما يجعله متاحًا حتى لأولئك الذين ليسوا على دراية بتكنولوجيا الذكاء الاصطناعي.”
يشهد
وضع Attestiv علامة على اثنين من مقاطع الفيديو الحقيقية على أنها “مشبوهة”. وفقًا للرئيس التنفيذي للشركة، نيكوس فيكياريدس، يمكن ظهور النتائج الإيجابية الكاذبة بسبب عوامل مثل الرسومات والتعديلات. يتضمن كلا مقطعي الفيديو الأصليين اللذين تم وضع علامة “مشبوهة” عليهما رسومات وتعديلات. يقدم الموقع خدمة مجانية، ولكنه يحتوي أيضًا على طبقة مدفوعة، حيث يمكن للمستهلكين ضبط الإعدادات والمعايرة لإجراء تحليل أكثر تعمقًا.
وبينما يعترف بأن موقع Attestiv ليس مثاليًا، قال فيكياريدس إنه نظرًا لأنه أصبح من الصعب اكتشاف التزييف العميق بالعين المجردة، فإن هذه الأنواع من مواقع الويب مطلوبة كجزء من الحل.
وقال فيكياريدس: “يمكن لأداتنا تحديد ما إذا كان هناك شيء مريب، وبعد ذلك يمكنك التحقق منه بأم عينيك لتقول: “أعتقد أن هذا الأمر مريب”.”
DeepFake-O-Meter
DeepFake-O-Meter هي أداة مجانية أخرى تدعمها جامعة بوفالو والمؤسسة الوطنية للعلوم. وحددت اثنين من مقاطع الفيديو الحقيقية على أنهما يحتويان على نسبة عالية من إنشاء الذكاء الاصطناعي.
وفي رسالة بريد إلكتروني، قال منشئ النظام الأساسي المفتوح إن أحد القيود على نماذج الكشف عن التزييف العميق هو أن ضغط الفيديو يمكن أن يؤدي إلى مشكلات في مزامنة الفيديو والصوت وحركات الفم غير المتسقة.
ردًا على سؤال حول كيفية استخدام المستخدمين العاديين للأداة، أرسلت الشركة رسالة عبر البريد الإلكتروني: “في الوقت الحالي، النتيجة الرئيسية المعروضة للمستخدمين هي القيمة الاحتمالية لهذه العينة كونها عينة تم إنشاؤها عبر نماذج كشف مختلفة. ويمكن استخدام هذا كمرجع إذا اتفقت نماذج متعددة على نفس الإجابة بثقة (على سبيل المثال، أكثر من 80% للفيديو الناتج عن الذكاء الاصطناعي أو أقل من 20% للفيديو الحقيقي). نتائج الكشف الشامل.”
حساسية
حدد كاشف التزييف العميق من Sensity جميع المقاطع الستة بشكل صحيح، وأظهر خريطة حرارية تشير إلى المكان الأكثر احتمالاً للتلاعب بالذكاء الاصطناعي.
تقدم الشركة فترة تجريبية مجانية لاستخدام خدمتها وأخبرت فريق I-Team أنه على الرغم من أنها مصممة حاليًا للمؤسسات الخاصة والعامة، إلا أن هدفها المستقبلي هو جعل التكنولوجيا في متناول الجميع.
المصدر
الكاتب:
الموقع : www.cbsnews.com
نشر الخبر اول مرة بتاريخ : 2024-11-20 20:12:00
ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي
تم نشر الخبر مترجم عبر خدمة غوغل