شعار زيفيرنت

الخط الفاصل بين الإبداع الحقيقي والإبداع الاصطناعي رفيع جدًا بالنسبة للعين

التاريخ:

يكشف الباحثون أنه مع استمرار مطوري الذكاء الاصطناعي في تحسين نماذجهم بما يتناسب مع التطور، فقد أصبح من الصعب بشكل متزايد التمييز بين الصور الحقيقية وإبداعات الذكاء الاصطناعي.

دراسة من قبل باحثين في جامعة واترلو أثبتت أن الناس يواجهون صعوبة في اكتشاف صورة لشخص حقيقي وصورة لشخص تم إنشاؤه بواسطة الذكاء الاصطناعي.

أقل من العتبة المتوقعة

أثناء إجراء الدراسة، قدم الباحثون في جامعة واترلو 20 صورة غير مصنفة إلى 260 مشاركًا. كانت نصف الصور لأشخاص حقيقيين مأخوذة من صور Google بينما تم إنشاء النصف الآخر بواسطة الذكاء الاصطناعي باستخدام أدوات مثل Dall-E و انتشار مستقر.

ثم طُلب من المشاركين تصنيف الصور، إذا كانت حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي، لتبرير إجاباتهم.

على الرغم من أن 61% من المشاركين تمكنوا من التمييز بين الصور الحقيقية والصور المولدة بواسطة الذكاء الاصطناعي، إلا أن هذا لا يزال أقل بكثير من العتبة المتوقعة البالغة 85%.

أثناء فحص الصور، اهتم المشاركون بالتفاصيل مثل العيون والأصابع والأسنان وغيرها من المؤشرات التي تشير إليها عند البحث عن الصور التي أنشأها الذكاء الاصطناعي، لكن "تقييماتهم لم تكن صحيحة دائمًا".

"الناس ليسوا بارعين في التمييز كما يعتقدون" محمد المؤلف الرئيسي للدراسة أندريا بوكول، وهو أيضًا مرشح لدرجة الدكتوراه في علوم الكمبيوتر في الجامعة.

وبينما قد ينظر مستخدمو الإنترنت إلى الصور بشكل عابر، قال باحثو واترلو إنهم سمحوا للمشاركين بأخذ وقتهم لتحليل الصور.

قال بوكول: "الأشخاص الذين يترقبون الهلاك أو ليس لديهم الوقت لن يلتقطوا هذه الإشارات".

اقرأ أيضا: الرئيس التنفيذي لشركة ليوناردو يسلط الضوء على غباء المستخدم بشأن تهديدات الذكاء الاصطناعي في دافوس

إساءة استخدام التكنولوجيا

هم دراسةبعنوان "الرؤية لم تعد تصدق: دراسة استقصائية عن حالة التزييف العميق والبشر المولدين بالذكاء الاصطناعي والوسائط الأخرى غير المؤكدة"، والذي يظهر في مجلة Advances in Computer Graphics، يسلط الضوء أيضًا على المخاطر المرتبطة بالتقدم في تكنولوجيا الذكاء الاصطناعي التوليدي .

ولاحظ الباحثون أيضًا بقلق المعدل الذي تتغير به تكنولوجيا الذكاء الاصطناعي التوليدي بسرعة، وتزداد تطورًا بمرور كل يوم. البحث الأكاديمي والتشريعات تفشل في مواكبة التطورات في الصناعة التوليدية.

وقال بوكول إن صور الذكاء الاصطناعي أصبحت أكثر واقعية مما يجعل من الصعب على بعض الأشخاص التمييز بسهولة بين الصور الحقيقية والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وقال بوكول إن هذا يخلق أرضًا خصبة للجهات الفاعلة السيئة التي تستغل التكنولوجيا لنشر الحقد وإدامة المعلومات المضللة أو خداع الناس.

وقال بوكول: "إن المعلومات المضللة ليست جديدة، لكن أدوات التضليل تتغير وتتطور باستمرار".

"قد يصل الأمر إلى نقطة حيث سيظل الناس، بغض النظر عن مدى تدريبهم، يكافحون من أجل التمييز بين الصور الحقيقية والمزيفة. ولهذا السبب نحتاج إلى تطوير أدوات لتحديد هذا الأمر ومواجهته. إنه مثل سباق تسلح جديد للذكاء الاصطناعي”.

وقد أقر الباحثون أيضًا بالتحديات التي تطرحها التكنولوجيا خاصة عندما يتعلق الأمر بانتشار التزييف العميق.

التكنولوجيا في الأيدي الخطأ

ومع الصعوبات التي يواجهها الأشخاص العاديون في التمييز بين الصور الحقيقية والمزيفة، هناك مخاوف متزايدة من زيادة انتشار الصور المزيفة. وحذر الخبراء من أن الجهات الفاعلة السيئة ستستغل تقنية الذكاء الاصطناعي لنشر الأكاذيب الانتخابية في محاولاتها لتضليل الناخبين.

مركز مكافحة الكراهية الرقمية (CCDH)، وهي منظمة غير ربحية تراقب خطاب الكراهية عبر الإنترنت حذر في تقريرهم أن مولدات الصور التي تعمل بالذكاء الاصطناعي تعمل على تفاقم المعلومات الخاطئة عن انتخابات 2024.

وقال باحثو المجلس الاستشاري لحقوق الإنسان في تقريرهم: "إن احتمال أن تكون مثل هذه الصور المولدة بواسطة الذكاء الاصطناعي بمثابة "أدلة مصورة" يمكن أن تؤدي إلى تفاقم انتشار الادعاءات الكاذبة، مما يشكل تحديًا كبيرًا للحفاظ على نزاهة الانتخابات".

لكن هذا يأتي وسط إعلان أن حوالي 20 شركة تكنولوجيا كبيرة بما في ذلك OpenAIوMicrosoft وStability AI وقعت على اتفاق للعمل معًا لمنع محتوى الذكاء الاصطناعي المخادع من "التدخل في الانتخابات التي تجري عالميًا هذا العام".

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة