شعار زيفيرنت

أظهرت دراسة جامعة جنوب كاليفورنيا أن أجهزة الكشف عن التزييف العميق ومجموعات البيانات تظهر تحيزًا عرقيًا وجنسانيًا

التاريخ:

انضم إلى Transform 2021 في الفترة من 12 إلى 16 يوليو. سجل for حدث الذكاء الاصطناعي لهذا العام.


أعرب بعض الخبراء عن قلقهم من إمكانية استخدام أدوات التعلم الآلي لإنشاء مقاطع فيديو مزيفة ، أو مقاطع فيديو تأخذ شخصًا في مقطع فيديو موجود وتستبدلها بمظهر شخص آخر. الخوف هو أن هذه المنتجات المزيفة قد تُستخدم لفعل أشياء مثل التأثير على الرأي أثناء الانتخابات أو توريط شخص ما في جريمة. بالفعل ، تم إساءة استخدام تقنية التزييف العميق للتوليد المواد الإباحية من الجهات الفاعلة والاحتيال على طاقة كبيرة منتج.

لحسن الحظ ، هناك جهود جارية لتطوير طرق آلية لاكتشاف التزييف العميق. يتصدر Facebook - جنبًا إلى جنب مع Amazon و Microsoft ، من بين آخرين - مجموعة تحدي اكتشاف Deepfakeالتي انتهت في يونيو الماضي. جاء إطلاق التحدي بعد إصدار مجموعة كبيرة من التزييف البصري العميق تم إنتاجه بالتعاون مع Jigsaw ، حاضنة Google الداخلية للتقنية ، والتي تم دمجها في معيار تم إتاحته مجانًا للباحثين لتطوير نظام الكشف عن الفيديو الاصطناعي. في الآونة الأخيرة ، أطلقت Microsoft حلها الخاص لمكافحة التزييف العميق في Video Authenticator ، وهو نظام يمكنه تحليل صورة ثابتة أو مقطع فيديو لتوفير درجة لمستوى ثقته في أن الوسائط لم يتم التلاعب بها بشكل مصطنع.

ولكن وفقًا للباحثين في جامعة جنوب كاليفورنيا ، فإن بعض مجموعات البيانات المستخدمة لتدريب أنظمة الكشف عن التزييف العميق قد تمثِّل تمثيلاً ناقصًا لأشخاص من جنس معين أو بألوان بشرة معينة. يقول المؤلفون إن هذا التحيز يمكن تضخيمه في أجهزة الكشف عن التزييف العميق ، حيث تظهر بعض أجهزة الكشف اختلافًا يصل إلى 10.7٪ في معدل الخطأ اعتمادًا على المجموعة العرقية.

أجهزة كشف التزييف العميق المنحازة

تتماشى النتائج ، رغم كونها مفاجئة ، مع الأبحاث السابقة التي أظهرت أن نماذج الرؤية الحاسوبية عرضة للتحيز الضار المنتشر. ورقة الخريف الماضي من قبل جامعة كولورادو ، أظهر باحثون في بولدر أن الذكاء الاصطناعي من أمازون ، وكلاريفاي ، ومايكروسوفت ، وآخرين حافظوا على معدلات دقة أعلى من 95٪ للرجال والنساء المتوافقين مع الجنس ، لكنهم أخطأوا في تعريف الرجال المتحولين جنسياً على أنهم نساء 38٪ من الوقت. معايير مستقلة لأنظمة البائعين الرئيسيين من قبل ظلال الجنس المشروع و المعهد الوطني للمعايير والتكنولوجيا (NIST) أظهرت أن تقنية التعرف على الوجه تُظهر تحيزًا عرقيًا وجنسانيًا واقترحت أن برامج التعرف على الوجه الحالية يمكن أن تكون غير دقيقة إلى حد كبير ، مما يؤدي إلى إساءة تصنيف الأشخاص إلى أعلى 96٪ من الوقت.

نظرت مجموعة جامعة جنوب كاليفورنيا في ثلاثة نماذج لاكتشاف التزييف العميق "مع نجاح مُثبت في اكتشاف مقاطع فيديو التزييف العميق". تم تدريبهم جميعًا على مجموعة بيانات FaceForensics ++ ، والتي تُستخدم بشكل شائع لأجهزة الكشف عن التزييف العميق ، بالإضافة إلى مجموعات تشمل Google's DeepfakeDetection و CelebDF و DeeperForensics-1.0.

في اختبار معياري ، وجد الباحثون أن أداء جميع أجهزة الكشف كان أسوأ على مقاطع الفيديو ذات الوجوه السوداء الداكنة ، خاصةً الوجوه السوداء للذكور. كانت مقاطع الفيديو التي تحتوي على وجوه آسيوية نسائية أعلى دقة ، ولكن اعتمادًا على مجموعة البيانات ، كان أداء أجهزة الكشف جيدًا أيضًا على الوجوه القوقازية (خاصة الذكور) والهندية. .

وفقًا للباحثين ، كانت مجموعات بيانات اكتشاف التزييف العميق غير متوازنة "بشدة" من حيث الجنس والجماعات العرقية ، حيث أظهرت مقاطع فيديو عينة FaceForensics ++ أكثر من 58٪ (معظمهم من البيض) من النساء مقارنة بـ 41.7٪ من الرجال. أظهر أقل من 5٪ من مقاطع الفيديو الحقيقية أشخاصًا سودًا أو هنودًا ، واحتوت مجموعات البيانات على "مقايضات غير منتظمة" ، حيث تم تبديل وجه شخص بشخص آخر من جنس أو جنس مختلف.

هذه المقايضات غير المنتظمة ، في حين أن النية تخفيف التحيز ، في الواقع هو المسؤول عن جزء على الأقل من التحيز في أجهزة الكشف ، كما افترض المؤلفون المشاركون. بعد أن تدربت أجهزة الكشف على مجموعات البيانات ، تعلمت الارتباطات بين التزييف ، وعلى سبيل المثال ، ملامح الوجه الآسيوية. استخدمت إحدى المجموعات الوجوه الآسيوية حيث تم تبديل الوجوه الأمامية على الوجوه القوقازية الأنثوية والوجوه النسائية من أصل إسباني.

"في سيناريو العالم الحقيقي ، من المرجح أن يتم تصنيف ملامح الوجه للأنثى الآسيوية أو الأفريقية بمعدل 1.5 إلى 3 مرات عن طريق الخطأ على أنها مزيفة عن الملفات الشخصية للذكر القوقازي ... يمكن أن تكون نسبة الموضوعات الحقيقية التي تم تحديدها عن طريق الخطأ على أنها مزيفة أكبر بكثير بالنسبة وكتب الباحثون "من الإناث أكثر من الذكور".

مخاطر العالم الحقيقي

تمثل النتائج تذكيرًا صارخًا بأنه حتى أنظمة الذكاء الاصطناعي "الأفضل" ليست بالضرورة خالية من العيوب. كما لاحظ المؤلفون المشاركون ، حقق كاشفًا واحدًا على الأقل للتزييف العميق في الدراسة دقة بنسبة 90.1٪ في مجموعة بيانات الاختبار ، وهو مقياس يخفي التحيزات بداخله.

كتب الباحثون: "[U] تغني مقاييس أداء واحدة مثل ... دقة الكشف على مجموعة البيانات بأكملها ليست كافية لتبرير النشر التجاري الضخم لأجهزة الكشف عن التزييف العميق". "نظرًا لأن تقنية التزييف العميق أصبحت أكثر انتشارًا ، فهناك اعتماد متزايد على الأنظمة الآلية لمكافحة التزييف العميق. نحن نجادل بأنه يجب على الممارسين التحقيق في جميع الجوانب والعواقب المجتمعية لهذه الأنظمة عالية التأثير ".

يأتي هذا البحث في الوقت المناسب بشكل خاص في ضوء النمو في سوق اكتشاف مقاطع الفيديو التجارية المزيفة العميقة. أمستردام مختبرات Deeptrace تقدم مجموعة من منتجات المراقبة التي تدعي تصنيف التزييف العميق الذي تم تحميله على وسائل التواصل الاجتماعي ومنصات استضافة الفيديو وشبكات المعلومات المضللة. هذه اقترح تقنيات لتحسين أجهزة الكشف عن التزييف العميق المدربة على مجموعات بيانات مقاطع الفيديو التي تم التلاعب بها. وتروبيك جمع 8 ملايين دولار جولة تمويل في يوليو 2018 لخدمات الكشف عن التزييف العميق للفيديو والصور. في كانون الأول (ديسمبر) 2018 ، استحوذت الشركة على شركة ناشئة أخرى "اكتشاف كخدمة" - Fourandsix - التي تم ترخيص كاشف الصور المزيف الخاص بها من قبل DARPA.

VentureBeat

تتمثل مهمة VentureBeat في أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول التكنولوجيا التحويلية والمعاملات. يقدم موقعنا معلومات أساسية حول تقنيات واستراتيجيات البيانات لإرشادك وأنت تقود مؤسساتك. ندعوك لتصبح عضوًا في مجتمعنا ، للوصول إلى:

  • معلومات محدثة عن الموضوعات التي تهمك
  • رسائلنا الإخبارية
  • محتوى مبوب لرائد الفكر وإمكانية وصول مخفضة إلى الأحداث الثمينة لدينا ، مثل تحويل 2021: يتعلم أكثر
  • ميزات الشبكات والمزيد

تصبح عضوا

كوينسمارت. Beste Bitcoin-Börse في أوروبا
المصدر: https://venturebeat.com/2021/05/06/deepfake-detectors-and-datasets-exhibit-racial-and-gender-bias-usc-study-shows/

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟