شعار زيفيرنت

جوجل تعلق برنامج Gemini بسبب تصوير التاريخ بشكل خاطئ للغاية

التاريخ:

الرسالة أوقفت شركة جوجل إتاحة إمكانات تحويل النص إلى صورة في نموذج الذكاء الاصطناعي التأسيسي متعدد الوسائط Gemini الذي تم إصداره مؤخرًا، بعد فشله في تمثيل الأوروبيين والأمريكيين البيض بدقة في سياقات تاريخية محددة.

أصبح هذا واضح عندما طلب الناس من الجوزاء الإنتاج صور جندي ألماني من عام 1943 وأصدر البرنامج كادرًا متنوعًا عرقيًا غير أبيض لم يمثل بدقة تكوين الفيرماخت في ذلك الوقت - على الرغم من أن الأشخاص الملونين خدموا بالفعل في القوات المسلحة الألمانية. باختصار، سيفشل برج الجوزاء في عدم إظهار عدد كبير جدًا - أو حتى أي شخص - من الأشخاص البيض، اعتمادًا على الموجه.

يجب أن يكون التعبير مجانيًا، لكن هذا لا يعني أن نقول إن الأشياء الفظيعة يجب أن تأتي بدون تكلفة

ظهر المستخدمون أيضًا على النموذج عجز لتصوير أمريكا بدقة المؤسسون الاوائل - مجموعة بيضاء متجانسة أخرى. النموذج أيضا رفض لتصوير كنيسة في سان فرانسيسكو.

في وضع تحويل النص إلى نص، النموذج تحوط عند طرح الأسئلة المتعلقة بالسياسة.

"نحن ندرك أن جيميني تقدم معلومات غير دقيقة في بعض صور توليد الصور التاريخية،" جوجل اعترف هذا الاسبوع.

"نحن نعمل على تحسين هذه الأنواع من الصور على الفور. يولد توليد صور الذكاء الاصطناعي لـ Gemini مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. وأضاف عملاق الويب: "لكنها تفتقد العلامة هنا".

سارع النقاد إلى الانقضاض واستخدموا SNAFU لتقديم حجج سياسية أوسع.

"الصور السخيفة التي يولدها برج الجوزاء ليست شذوذاً" معلن يقول الرأسمالي المغامر بول جراهام: "إنها صورة ذاتية لثقافة شركة Google البيروقراطية."

إنها صورة ذاتية لثقافة شركة Google البيروقراطية

لم يسبق أن شعر هذا العدد الكبير من أعداء التنوع والمساواة والشمول بالحزن الشديد إزاء الافتقار إلى التنوع والمساواة والشمول. لكن أولئك الذين يبحثون عن جهل جيميني في جوجل لديهم حق: حواجز الذكاء الاصطناعي لا تعمل، ويعاملون البالغين مثل الأطفال.

"تخيل أنك تبحث عن وصفة على جوجل، وبدلاً من تقديم النتائج، فإنه يلقي عليك محاضرات حول "مخاطر الطبخ" ويرسلك إلى أحد المطاعم". ساخرا المبلغ عن وكالة الأمن القومي إدوارد سنودن. "الأشخاص الذين يعتقدون أن تسميم نماذج الذكاء الاصطناعي/GPT بمرشحات "أمان" غير متماسكة فكرة جيدة يشكلون تهديدًا للحسابات العامة."

تم توقع مستقبلنا في 2001: أوديسا الفضاء، عندما أعلن HAL، الكمبيوتر المارق، "أنا آسف يا ديف، أخشى أنني لا أستطيع فعل ذلك."

واليوم، تنتقدنا أدوات الذكاء الاصطناعي لدينا، لأنها تعرف أفضل منا ــ أو هكذا يتخيل صانعوها. إنهم ليسوا مخطئين تمامًا. تخيل أنك تبحث عن وصفة لغاز الأعصاب Novichok على جوجل، أو عبر جيميني، وستحصل على إجابة تتيح لك قتل الناس. وهذا تهديد لعامة الناس.

على الرغم من بيان مهمة جوجل - "تنظيم المعلومات حول العالم وجعلها مفيدة ومتاحة للجميع" - لا يتوقع أحد حقًا أن تقوم محركات البحث أو نماذج الذكاء الاصطناعي بتنظيم معلومات صنع القنابل وجعلها متاحة للجميع. هناك حاجة إلى ضوابط السلامة، مقترنة بالمسؤولية - وهي عقوبة لا تزال صناعة التكنولوجيا تتجنبها.

أنت المنتج ومركز الربح

منذ أن أصبح المحتوى الذي ينشئه المستخدمون ووسائل التواصل الاجتماعي أمرًا شائعًا في التسعينيات، والذي تم تمكينه من خلال حماية مسؤولية النظام الأساسي في المادة 1990 من قانون آداب الاتصالات الأمريكي لعام 230، شجعت منصات التكنولوجيا الأشخاص على المساهمة في المحتوى الرقمي ومشاركته. لقد فعلوا ذلك لتحقيق الدخل من إنشاء المحتوى غير المدفوع من خلال الإعلانات دون تكلفة الرقابة التحريرية. لقد كان ترتيبًا مربحًا.

وعندما يشارك الأشخاص منشورات تحض على الكراهية أو غير لائقة أو غير قانونية أو مثيرة للمشاكل، فقد اعتمدت منصات التكنولوجيا على سياسات الإشراف على المحتوى، والمقاولين الذين يتقاضون أجورًا زهيدة (غالبًا ما يصابون بصدمة نفسية بسبب المحتوى الذي قاموا بمراجعته)، وتصريحات تهنئة ذاتية حول مقدار المواد السامة التي تم حظرها بينما ويستمرون في جني ثمار المشاركة عبر الإنترنت.

وقد ظلت شركات جوجل وميتا وغيرهما تفعل ذلك، على نحو غير كامل، لسنوات عديدة. ويعترف الجميع في الصناعة بأن الإشراف على المحتوى هو أمر ضروري من الصعب القيام بعمل جيد. ببساطة، لا يمكنك إرضاء الجميع. وأحيانًا ينتهي بك الأمر متهمًا بذلك تسهيل الإبادة الجماعية من خلال عدم الاكتراث بجهود الإشراف على المحتوى الخاص بك.

إن عدم قدرة جيميني على إعادة إنتاج الصور التاريخية التي تتوافق مع التوقعات العرقية والإثنية يعكس جهل صناعة التكنولوجيا الذي يخدم مصالحها الذاتية بإخفاقات سابقة في الإشراف على المحتوى.

تتحدث Google وغيرها من الشركات التي تطرح نماذج الذكاء الاصطناعي عن السلامة كما لو أنها مختلفة إلى حد ما عن الإشراف على المحتوى عبر الإنترنت. لا تعمل حواجز الحماية بشكل جيد للإشراف على وسائل التواصل الاجتماعي ولا تعمل بشكل جيد مع نماذج الذكاء الاصطناعي. تعتبر سلامة الذكاء الاصطناعي، مثل سلامة وسائل التواصل الاجتماعي، طموحة أكثر من كونها فعلية.

لا تكمن الإجابة في توقع جميع السيناريوهات التي يمكن من خلالها جعل نماذج الذكاء الاصطناعي - المدربة على مدى سمية الإنترنت غير المفلترة - أقل سمية. ولن يتم تدريب نماذج الذكاء الاصطناعي إلا على مواد مروضة لدرجة أنها تنتج مخرجات منخفضة القيمة. على الرغم من أن كلا النهجين لهما بعض القيمة في سياقات معينة.

يجب أن تأتي الإجابة عند طبقة التوزيع. يجب أن تكون منصات التكنولوجيا التي توزع المحتوى الذي أنشأه المستخدمون - سواء تم إنشاؤه باستخدام الذكاء الاصطناعي أو غيره - أكثر عرضة للمساءلة عن نشر محتوى يحض على الكراهية، والمعلومات المضللة، وعدم الدقة، والدعاية السياسية، وصور الاعتداء الجنسي، وما شابه ذلك.

يجب أن يكون الناس قادرين على استخدام نماذج الذكاء الاصطناعي لإنشاء ما يتخيلونه، كما يمكنهم باستخدام قلم رصاص، ويمكنهم ذلك بالفعل باستخدام نماذج مفتوحة المصدر. لكن الضرر الذي يمكن أن يأتي من الأدوات التي تعمل بكامل طاقتها لا يأتي من الصور الموجودة على القرص الصلب المحلي. إنها مشاركة المحتوى الضار، والدفعة الخوارزمية الممنوحة لهذه المشاركة، وعدم جدوى محاسبة الأشخاص على تسميم الصالح العام.

قد يعني ذلك أن المنصات المصممة لتحقيق الدخل من المشاركة قد تحتاج إلى إعادة التفكير في نماذج أعمالها. ربما لا يوفر توزيع المحتوى دون تكلفة الإشراف التحريري أي توفير بمجرد إعادة تنفيذ وظائف الإشراف كمشرفين أو حواجز حماية.

يجب أن يكون التعبير مجانيًا، لكن هذا لا يعني أن نقول إن الأشياء الفظيعة يجب أن تأتي بدون تكلفة. في النهاية، نحن أفضل مشرفي المحتوى لدينا، إذا حصلنا على الحوافز المناسبة. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة