شعار زيفيرنت

كيف يغير الذكاء الاصطناعي ذاكرتنا وتصورنا للواقع

التاريخ:

يمكن للتزييف العميق أن يغير تصورنا للواقع ويغير طريقة تذكرنا للأشياء

في عصر تتطور فيه التكنولوجيا بشكل أسرع مما تخيلنا من أي وقت مضى، ليس من المستغرب أن يتسلل الذكاء الاصطناعي (AI) إلى حياتنا وظهر من خلال البرامج والأدوات التكنولوجية اليومية التي نستخدمها. في مقال حديث، تم استكشاف ExpressVPN كيف تم استخدام تقنية الذكاء الاصطناعي المعروفة باسم التعلم العميق لإنشاء صور مزيفة عميقة. وفقًا لشركة الأمن السيبراني والشبكات الخاصة الافتراضية، يمكن للتزييف العميق أن يغير نظرتنا للواقع ويغير طريقة تذكرنا للأشياء.

التزييف العميق والتلاعب بالذاكرة

في مقالتها، استكشفت ExpressVPN ظاهرة تُعرف باسم تأثير مانديلا وكيف استمر بعض الأشخاص في تذكر بعض الأحداث الحية - وتحديدًا حياة ووفاة رئيس جنوب إفريقيا السابق نيلسون مانديلا - بشكل مختلف. جاء هذا المصطلح بعد أن تذكر أحد الباحثين في الخوارق قراءة التغطية الإخبارية لوفاة مانديلا في السجن على الرغم من أن ذلك لم يحدث أبدًا.

بدءًا من استرجاع عبارات من فيلم لم يُقال أبدًا وانتهاءً باسترجاع الأحداث التاريخية بشكل مختلف، يمكن لخوارزميات الذكاء الاصطناعي زرع ذكريات كاذبة على نطاق واسع. بعد كل شيء، يعتمد الذكاء الاصطناعي بشكل كبير على المعلومات التي يزودها بها المبدعون والمبرمجون، ومن السهل تغذية نظام الذكاء الاصطناعي بمعلومات كاذبة.

وفجأة، قد يظن جيل أن دارث فيدر قال: "لوك، أنا أبوك"، على الرغم من أن الجملة الفعلية هي: "لا، أنا أبوك". مع تغيير الذكاء الاصطناعي للماضي والحاضر والمستقبل، يصبح الواقع منحدرًا زلقًا، وتصبح الحقيقة ملعبًا لأذى الذكاء الاصطناعي.

التزييف العميق يخلق حفرة أرنب حقيقية

بفضل تقنيات الواقع الافتراضي (VR) والواقع المعزز (AR) المدعومة بالذكاء الاصطناعي، يمكننا الغوص في عوالم بديلة واستكشاف أبعاد خيالية. يمكن لمحاكاة الذكاء الاصطناعي أن تنقلنا إلى أماكن لم نذهب إليها من قبل، وتعرفنا على أشخاص لم يكونوا موجودين من قبل، وتغمرنا في حقائق تتحدى قوانين الفيزياء. 

فجأة، تصبح تصوراتنا مرنة، ويصبح التمييز بين ما هو حقيقي وما هو ناتج عن الذكاء الاصطناعي لعبة محبطة لمحاولة فصل الواقع عن الخيال.

وفي الآونة الأخيرة، تم تداول صور للبابا وهو يرتدي سترة بيضاء منتفخة مستوحاة من مونكلير على الإنترنت. وكانت الصور مقنعة للغاية لدرجة أن الكثير من الناس اعتقدوا أنها حقيقية، بل وأشادوا بالبابا لاختياراته الجريئة نسبيًا في الأزياء. على إنستغرام، ذهب أحد فناني الذكاء الاصطناعي إلى أبعد من ذلك من خلال إنشاء صور لأزواج مشهورين سابقين وكيف كان سيبدو أطفالهم لو لم ينفصلوا. بغض النظر عما يعتقده الناس عنهم، كانت هذه الصور بالتأكيد مثيرة للاهتمام للنظر إليها.  

pastedGraphic.png

Deepfakes إنشاء مركز للمعلومات الكاذبة

في عام 2018، انتشر على الإنترنت مقطع فيديو للرئيس الأمريكي السابق باراك أوباما. وفي الفيديو، أدلى أوباما بشكل أساسي بتصريحات مسيئة لنظيره. لكن، الفيديو كان كاذبا وتم إنشاؤه مع الممثل جوردان بيل الذي يقوم بالتعليق الصوتي. تم تعديل صوت بيل وتغطية مقطع فيديو لأوباما وهو يتحدث.  كان الفيديو طريقة شركة Buzzfeed الإعلامية لتحذير مستخدمي الإنترنت في كل مكان من مخاطر التزييف العميق والمعلومات الكاذبة. وكان أيضًا بمثابة تذكير صارخ لمستخدمي الإنترنت بعدم تصديق كل ما يرونه عبر الإنترنت.

مع استمرار الذكاء الاصطناعي في شق طريقه إلى حياتنا، وتغيير ذكرياتنا وإعادة تشكيل تصورنا للواقع، نجد أنفسنا في عالم جديد شجاع من عدم اليقين والعجب. إن الخط الفاصل بين الحقيقة والخيال يطمس، مما يتركنا نفكر في معنى أن نكون بشرًا في عصر يمكن فيه التلاعب بذكرياتنا. وبالتالي، سيتعين على منشئي ومبرمجي محتوى الذكاء الاصطناعي أن يكونوا حذرين من نوع المسؤولية التي يتحملونها عندما يتعلق الأمر بإنشاء شيء ما والعيوب المحتملة التي قد تترتب على مثل هذه الإبداعات. 

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة