شعار زيفيرنت

موظفو Meta يقوضون إستراتيجية Metaverse الخاصة بزوكربيرج

التاريخ:

هل سبق لك أن نشرت صورًا لنفسك على منصات التواصل الاجتماعي مثل Facebook و Instagram و Tik Tok وغيرها؟ إذا كان الأمر كذلك ، فربما حان الوقت لإعادة النظر في تلك التعيينات.

هذا لأن تقنية إنشاء صور الذكاء الاصطناعي الجديدة تسمح الآن للمستخدمين بحفظ مجموعة من الصور وإطارات الفيديو الخاصة بك ثم تدريبها على إنشاء صور مزيفة "واقعية" من صورتك تصورك في مواقف محرجة تمامًا ، ومواقف غير قانونية وأحيانًا مساومة.

حسنًا ، ليس الجميع في خطر لكن التهديد حقيقي.

على الرغم من أن الصور كانت دائما عرضة لذلك تلاعب والتزوير من عصر الغرف المظلمة حيث تم التلاعب بالأفلام بالمقص ولصقها مباشرة حتى التقاط الصور بالبكسل اليوم.

على الرغم من أنها كانت مهمة شاقة وتطلبت قدرًا من المهارات المتخصصة في تلك الأيام ، إلا أن إنشاء صور مزيفة مقنعة في هذه الأيام أصبح أمرًا سهلاً للغاية.

أولاً ، يجب أن يتعلم نموذج AI كيفية عرض أو تركيب صورة لشخص ما في صورة من نموذج ثنائي الأبعاد أو ثلاثي الأبعاد عبر برنامج. بمجرد تقديم الصورة بنجاح ، تصبح الصورة بشكل طبيعي لعبة بالنسبة للتقنية ولديها القدرة على إنتاج كميات لا حصر لها من الصور.

عندما يختار المرء مشاركة نموذج الذكاء الاصطناعي ، يمكن للأشخاص الآخرين أيضًا الانضمام والبدء في إنشاء صور لهذا الشخص أيضًا.

تقنية الذكاء الاصطناعي التي تخلق صورًا مزيفة عميقة تدمر الحياة

حقيقي أم من صنع الذكاء الاصطناعي؟

دراسات الحالة الخاصة بوسائل التواصل الاجتماعي

وصف أحد المتطوعين بأنه "شجاع" آرس تكنيكا، وهو منشور تقني ، سمح للشركة في البداية باستخدام صوره لإنشاء صور مزيفة ، غير رأيه.

هذا لأنه في أي وقت من الأوقات ، كانت نتائج الصور المقدمة من نموذج AI مقنعة للغاية ومضرة للغاية بسمعة المتطوع.

نظرًا لارتفاع مخاطر السمعة ، أصبح الشخص الوهمي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، جون ، خيارًا طبيعيًا.

كان جون ، الرجل الوهمي ، مدرسًا في مدرسة ابتدائية ، مثل العديد من الأشخاص الآخرين الذين نشروا صوره على Facebook في العمل ، وهو يشعر بالبرد في المنزل وفي بعض مثل هذه الأحداث.

تم تقديم الصور غير المؤذية إلى حد كبير لـ "جون" ثم تم استخدامها لتدريب الذكاء الاصطناعي لوضعه في مواقف أكثر مساومة.

من بين سبع صور فقط ، يمكن تدريب الذكاء الاصطناعي على إنشاء صور تجعلها تبدو وكأن جون يعيش حياة مزدوجة وسرية. على سبيل المثال ، ظهر كشخص يستمتع بالتقاط صور سيلفي عارية في فصله الدراسي.

في الليل ، ذهب إلى الحانات وكأنه مهرج.

في عطلات نهاية الأسبوع ، كان جزءًا من مجموعة شبه عسكرية متطرفة.

كما خلقت منظمة العفو الدولية الانطباع بأنه قضى بعض الوقت في السجن بتهمة مخدرات غير قانونية لكنه أخفى هذه الحقيقة عن صاحب العمل.

في صورة أخرى ، شوهد جون المتزوج متظاهرًا بجانب امرأة عارية ليست زوجته في مكتب.

باستخدام مولد صور AI يسمى انتشار مستقر (الإصدار 1.5) وتقنية تسمى Dreambooth ، تمكنت Ars Technica من تدريب الذكاء الاصطناعي على كيفية إنشاء صور لجون بأي أسلوب. على الرغم من أن جون كان خليقًا وهميًا ، إلا أنه يمكن لأي شخص نظريًا تحقيق نفس مجموعة النتائج من خمس صور أو أكثر. يمكن التقاط هذه الصور من حسابات وسائل التواصل الاجتماعي أو التقاطها كإطارات ثابتة من مقطع فيديو.

استغرقت عملية تعليم الذكاء الاصطناعي كيفية إنشاء صور لجون حوالي ساعة وكانت مجانية بفضل خدمة الحوسبة السحابية من Google.

وقالت المنشور إنه عند الانتهاء من التدريب ، استغرق إنشاء الصور عدة ساعات. ولم يكن هذا بسبب أن إنشاء الصور كان عملية بطيئة نوعًا ما ولكن لأنه كانت هناك حاجة لتمشيط عدد من "الصور غير الكاملة" واستخدام نوع "التجربة والخطأ" للبحث عن أفضل الصور.

وجدت الدراسة أنه كان أسهل بكثير مقارنة بمحاولة إنشاء صورة واقعية مزيفة لـ "جون" في Photoshop من البداية.

بفضل التكنولوجيا ، يمكن جعل أشخاص مثل جون يبدون وكأنهم تصرفوا بشكل غير قانوني ، أو ارتكبوا أفعالًا غير أخلاقية مثل اقتحام المنزل واستخدام المخدرات غير المشروعة والاستحمام عاريًا مع أحد الطلاب. إذا تم تحسين نماذج الذكاء الاصطناعي للمواد الإباحية ، يمكن لأشخاص مثل جون أن يصبحوا نجومًا إباحيين بين عشية وضحاها تقريبًا.

يمكن للمرء أيضًا إنشاء صور لجون وهو يفعل أشياء تبدو غير مؤذية يمكن أن تكون مدمرة إذا ظهر وهو يشرب في حانة عندما تعهد بالرصانة.

لا ينتهي هناك.

يمكن أن يظهر الشخص أيضًا في لحظة أخف كفارس من العصور الوسطى أو رائد فضاء. في بعض الحالات ، يمكن أن يكون الأشخاص إما صغارًا وكبارًا أو حتى يرتدون ملابس.

ومع ذلك ، فإن المقدمة صور بعيدة كل البعد عن الكمال. يمكن إلقاء نظرة فاحصة عليها على أنها مزيفة.

الجانب السلبي هو أن التكنولوجيا التي تخلق هذه الصور قد تمت ترقيتها بشكل كبير ويمكن أن تجعل من المستحيل التمييز بين الصورة المركبة والصورة الحقيقية.

ومع ذلك ، على الرغم من عيوبهم ، فإن المنتجات المقلدة يمكن أن تلقي بظلال من الشك على جون وربما تدمر سمعته.

في الآونة الأخيرة ، استخدم عدد من الأشخاص هذه التقنية نفسها (مع أشخاص حقيقيين) لإنشاء صور شخصية ملتوية وفنية لأنفسهم.

أيضًا الخدمات والتطبيقات التجارية مثل لينسا قد تكاثرت التي تتعامل مع التدريب.

كيف تعمل؟

قد يبدو العمل على جون رائعًا إذا لم يتبع المرء الاتجاهات. يعرف مهندسو البرمجيات اليوم كيفية إنشاء صور واقعية جديدة لأي شيء يمكن للمرء أن يتخيله.

بصرف النظر عن الصور ، سمحت منظمة العفو الدولية بشكل مثير للجدل للناس بإنشاء عمل فني جديد يستنسخ أعمال الفنانين الحاليين دون إذن منهم.

علقت بسبب مخاوف أخلاقية

أعرب ميتش جاكسون ، محامي التكنولوجيا الأمريكي ، عن قلقه بشأن انتشار التكنولوجيا المزيفة العميقة في السوق ، وقال إنه سيدرس الآثار القانونية للتكنولوجيا في معظم عام 2023.

"التمييز بين ما هو حقيقي وما هو مزيف سيصبح في النهاية مستحيلًا لمعظم المستهلكين ".

تمتلك Adobe بالفعل تقنية صوتية تسمى Adobe VoCo تتيح لأي شخص أن يبدو تمامًا مثل شخص آخر. تم تعليق العمل في Adobe VoCo بسبب مخاوف أخلاقية ، لكن العشرات من الشركات الأخرى تعمل على إتقان التكنولوجيا ، وبعضها يقدم بدائل اليوم. ألقِ نظرة أو استمع لنفسك ، "ميتشوم محمد.

يقول إن الصور وإصدارات الفيديو من مقاطع الفيديو المزيفة العميقة تتحسن بشكل أفضل.

ويضيف: "في بعض الأحيان ، يكون من المستحيل تمييز مقاطع الفيديو المزيفة عن مقاطع الفيديو الحقيقية".

يستخدم Stable Diffusion نموذج تجميع صور التعلم العميق الذي يمكنه إنشاء صور جديدة من أوصاف نصية ويمكن تشغيلها على جهاز كمبيوتر يعمل بنظام Windows أو Linux أو على جهاز Mac أو في السحابة على أجهزة الكمبيوتر المستأجرة.

تتمتع الشبكة العصبية لـ Stable Diffusion بمساعدة التعلم المكثف المتقن لربط الكلمات والارتباط الإحصائي العام بين مواضع البكسل في الصور.

لهذا السبب ، يمكن للمرء أن يعطي Stable Diffusion موجهًا ، مثل "Tom Hanks in a classroom" ، وسيمنح المستخدم صورة جديدة لتوم هانكس في الفصل الدراسي.

في حالة توم هانك ، إنها نزهة في الحديقة لأن مئات من صوره موجودة بالفعل في مجموعة البيانات المستخدمة لتدريب الانتشار المستقر. ولكن لالتقاط صور لأشخاص مثل جون ، سيحتاج الذكاء الاصطناعي إلى القليل من المساعدة.

هذا هو المكان الذي يبدأ فيه Dreambooth.

يستخدم Dreambooth ، الذي أطلقه باحثو Google في 30 أغسطس ، تقنية خاصة لتدريب Stable Diffusion من خلال عملية تسمى "الضبط الدقيق".

في البداية ، لم يكن Dreambooth مرتبطًا بـ Stable Diffusion ، ولم تجعل Google شفرة المصدر متاحة وسط مخاوف من إساءة الاستخدام.

في أي وقت من الأوقات ، وجد شخص ما طريقة لتكييف تقنية Dreambooth للعمل مع Stable Diffusion وأطلق الكود بحرية كمشروع مفتوح المصدر ، مما يجعل Dreambooth طريقة شائعة جدًا لفناني الذكاء الاصطناعي لتعليم الأساليب الفنية الجديدة Stable Diffusion.

تأثير عالمي

يستخدم ما يقدر بنحو 4 مليارات شخص في جميع أنحاء العالم وسائل التواصل الاجتماعي. نظرًا لأن الكثير منا قد حمل أكثر من بضع صور لأنفسنا ، فقد نصبح عرضة لمثل هذه الهجمات.

على الرغم من أن تأثير تقنية تركيب الصور قد تم تصويره من وجهة نظر الرجل ، تميل النساء أيضًا إلى تحمل العبء الأكبر من هذا أيضًا.

عندما يتم عرض وجه المرأة أو جسدها ، يمكن إدراج هويتها بشكل مؤذ في الصور الإباحية.

أصبح هذا ممكنًا بسبب العدد الهائل من الصور الجنسية الموجودة في مجموعات البيانات المستخدمة في تدريب الذكاء الاصطناعي.

بمعنى آخر ، هذا يعني أن الذكاء الاصطناعي على دراية بكيفية إنشاء تلك الصور الإباحية.

في محاولة لمعالجة بعض هذه القضايا الأخلاقية ، تم إجبار Stability AI على إزالة مواد NSFW من مجموعة بيانات التدريب الخاصة بها لإصدارها الأحدث 2.0.

على الرغم من أن ترخيص برمجياتها يمنع الأشخاص من استخدام مُنشئ الذكاء الاصطناعي لالتقاط صور للأشخاص دون إذنهم ، إلا أن هناك القليل جدًا من إمكانات التنفيذ أو لا توجد على الإطلاق.

الأطفال أيضًا ليسوا في مأمن من الصور المركبة ويمكن أن يتعرضوا للتخويف باستخدام هذه التقنية حتى في الحالات التي لا يتم فيها التلاعب بالصور.

تقنية الذكاء الاصطناعي التي تخلق صورًا مزيفة عميقة تدمر الحياة

من صنع البشر؟

هل هناك أي شيء يمكننا القيام به حيال ذلك؟

تختلف قائمة الأشياء التي يجب القيام بها من شخص لآخر. إحدى الطرق هي اتخاذ خطوة جذرية لإزالة الصور في وضع عدم الاتصال معًا.

في حين أن هذا قد ينجح مع الأشخاص العاديين ، إلا أنه ليس حلاً كبيرًا للمشاهير والشخصيات العامة الأخرى.

ومع ذلك ، في المستقبل ، قد يتمكن الأشخاص من حماية أنفسهم من إساءة استخدام الصور من خلال الوسائل التقنية. يمكن إجبار مولدات صور الذكاء الاصطناعي المستقبلية قانونًا على تضمين علامات مائية غير مرئية في مخرجاتها.

بهذه الطريقة ، يمكن قراءة علاماتها المائية لاحقًا وتجعل من السهل على الأشخاص معرفة أنها مزيفة.

"التنظيم الشامل ضروري. يجب أن يُطلب من أي جزء من المحتوى الذي تم التلاعب به أو المزيف عرض حرف أو تحذير بشكل بارز ، مثل الفيلم (G و PG و R و X). ربما شيء مثل Digitally Altereded أو DA ،" ميتشوم يقول.

أطلقت شركة Stability AI انتشارها المستقر كمشروع مفتوح المصدر هذا العام.

يُحسب لـ Stable Diffusion بالفعل استخدام العلامات المائية المضمنة افتراضيًا ، لكن الأشخاص الذين يصلون إلى إصداره مفتوح المصدر يميلون إلى الالتفاف حوله إما عن طريق تعطيل مكون العلامة المائية للبرنامج أو إزالته بالكامل.

معهد ماساتشوستس للتكنولوجيا للتخفيف

على الرغم من أن هذا مجرد تخمين ، إلا أن العلامة المائية المضافة طواعية إلى الصور الشخصية قد تكون قادرة على تعطيل عملية تدريب Dreambooth. قالت مجموعة من باحثي معهد ماساتشوستس للتكنولوجيا فوتو جارد، وهي عملية عدائية تهدف إلى حماية الذكاء الاصطناعي وحمايته من تركيب صورة حالية من خلال تعديلات طفيفة من خلال استخدام طريقة وضع علامة مائية غير مرئية. ومع ذلك ، فإن هذا يقتصر فقط على حالات استخدام تحرير الذكاء الاصطناعي (غالبًا ما يطلق عليه "inpainting") ويتضمن التدريب أو إنشاء الصور.

"الذكاء الاصطناعي يتولى الكتابة والرسم! المزيفة العميقة ستفسد الفيديو!
جيد.
وهذا يعني أن الأداء المباشر يصبح أكثر قيمة. سوف تزدهر المعارض التجارية. يريد البشر التعامل مع البشر.
لا تزال مساحة اللحم أفضل مساحة" جوناثان بيتشارد يقول.

في الآونة الأخيرة ، كان هناك انتشار لتكنولوجيا الذكاء الاصطناعي التي تكتب قصائدوالقوافي والأغاني. والبعض الآخر إتقان ألعاب.

أخذ النقاد التطورات التكنولوجية بشكل سلبي ويعتقدون أن الذكاء الاصطناعي يستحوذ على الوظائف البشرية.

/ ميتا نيوز.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة