OpenAI، مختبر أبحاث الذكاء الاصطناعي المؤثر الذي يقف وراء أدوات رائدة مثل ChatGPT و Sora، وجد نفسه في موقف صعب بعد مقابلة أجريت مؤخرًا مع مدير التكنولوجيا فيه، ميرا موراتي.
المقابلة، التي أجرتها مراسلة وول ستريت جورنال جوانا ستيرن، ركزت على أحدث نظام لتوليد الصور، أو بالأحرى الفيديو، من OpenAI، سورا.
تتمحور المخاوف حول إساءة الاستخدام المحتملة للأعمال المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي انعدام الشفافية من OpenAI فيما يتعلق بممارسات البيانات الخاصة بها.
بيانات تدريب سورا محل شك
وفي قلب الجدل تكمن مسألة بيانات التدريب، مجموعات البيانات الضخمة المستخدمة لتدريب نماذج الذكاء الاصطناعي.
عندما سُئل عن مصادر البيانات المستخدمة في Sora، قدم موراتي الإجابة القياسية: تم تدريب النموذج على "البيانات المتاحة للجمهور والمرخصة".
ومع ذلك، كشف المزيد من التحقيق عن التردد وعدم اليقين من جانب موراتي بشأن التفاصيل المحددة لمجموعة البيانات هذه.
هذا الرد لديه رفع الأعلام الحمراء بين الفنانين والمصورين وخبراء الملكية الفكرية. تعتمد أنظمة توليد الصور التي تعتمد على الذكاء الاصطناعي بشكل كبير على استيعاب كميات هائلة من الصور، والتي قد يكون الكثير منها محميًا بموجب حقوق الطبع والنشر. يثير عدم الوضوح حول بيانات تدريب Sora تساؤلات حول ما إذا كانت OpenAI قد قامت بحماية حقوق منشئي المحتوى بشكل مناسب.
تم الاعتراف باستخدام Shutterstock لاحقًا
ومما زاد الطين بلة هو رفض موراتي الأولي للحديث عما إذا كانت صور Shutterstock جزءًا من مجموعة بيانات تدريب سورا. فقط بعد المقابلة، في حاشية أضافتها صحيفة وول ستريت جورنال، أكد موراتي استخدام مكتبة الصور الخاصة بموقع Shutterstock.
يتناقض هذا التأكيد مع موقف OpenAI العلني المتمثل في "البيانات المتاحة للجمهور والمرخصة"ويقترح محاولة لإخفاء ممارسات التوريد التي قد تكون مثيرة للمشاكل.
قام كل من Shutterstock وOpenAI بتشكيل أ شراكة منح حقوق OpenAI لاستخدام مكتبة صور Shutterstock في تدريب نماذج توليد الصور مثل DALL-E 2 وربما Sora.
في المقابل، يحصل المساهمون في Shutterstock (المصورون والفنانون الذين توجد صورهم على المنصة) على تعويض عند استخدام عملهم في تطوير نماذج الذكاء الاصطناعي هذه.
يتكشف كابوس العلاقات العامة
من الآمن أن نقول إن معظم العاملين في مجال العلاقات العامة لن يعتبروا هذه المقابلة تحفة فنية في مجال العلاقات العامة.
يأتي افتقار موراتي للوضوح في وقت حساس بالنسبة لـ OpenAI، تواجه بالفعل دعاوى قضائية كبرى بشأن حقوق الطبع والنشر، بما في ذلك تقرير مهم قدمته صحيفة نيويورك تايمز.
يقوم الجمهور بفحص ممارسات مثل الاستخدام السري المزعوم لـ OpenAI لمقاطع فيديو YouTube للتدريب النموذجي ذكرت سابقا من قبل المعلومات. ومع مطالبة أصحاب المصلحة، بدءاً من الفنانين إلى الساسة، بالمساءلة، فإن تجنب موراتي لا يؤدي إلا إلى تأجيج النار.
نهج OpenAI الغامض يأتي بنتائج عكسية مذهلة، تحويل مقابلة سورا إلى كارثة علاقات عامة.
تقول Mira Murati، CTO في OpenAI، إن Sora تم تدريبه على البيانات المتاحة للجمهور والمرخصة pic.twitter.com/rf7pZ0ZX00
– تساراثوسترا (@ تسارنيك) 13 آذار، 2024
الشفافية ليست الموضوع الأكثر مناقشة من أجل لا شيء
تؤكد هذه الحادثة حقيقة بالغة الأهمية: إن الكشف عن الحقيقة أمر بالغ الأهمية في عالم الذكاء الاصطناعي. لقد أدت استجابات شركة OpenAI المتعثرة إلى تقويض ثقة الجمهور بشدة وتكثيف التساؤلات حول ممارساتها الأخلاقية. يسلط جدل سورا الضوء على الجوقة المتنامية المطالبة بقدر أكبر من المساءلة داخل صناعة الذكاء الاصطناعي.
إحجام موراتي عن الكشف عن تفاصيل بيانات تدريب سورا عدم الثقة ويشكل سابقة خطيرة.
وبدون الوضوح الذي يطالب به الفنانون والمبدعون والجمهور، فإن المناقشات الأخلاقية واحتمال اتخاذ إجراءات قانونية سوف تشتد.
لا يوجد ملائكة في هذه الأرض
في حين أن الكثير من التدقيق الحالي يقع بشكل مباشر على OpenAI، فمن المهم أن نتذكر إنهم ليسوا اللاعب الوحيد في اللعبة.
أبحاث الفيسبوك للذكاء الاصطناعي نموذج LLaMA و جوجل الجوزاء واجهوا أيضًا ادعاءات بوجود مشاكل في مصادر بيانات التدريب.
وهذا ليس مستغربا، كما تقارير رجال الأعمال من الداخل الذي اعترف به ميتا بالفعل باستخدام منشورات Instagram و Facebook لتدريب نماذج الذكاء الاصطناعي الخاصة بها. بالإضافة إلى ذلك، سيطرة جوجل على مساحات واسعة من الإنترنت يمنحهم وصولاً لا مثيل له إلى بيانات التدريب المحتملة، مما يثير مخاوف أخلاقية مماثلة بشأن الموافقة وحقوق النشر.
الوضع مع سورا OpenAI هو مجرد قطعة واحدة من اللغز الأكبر. يواجه مجال تطوير الذكاء الاصطناعي بأكمله التدقيق فيما يتعلق بممارسات البيانات والآثار الأخلاقية المحتملة.
رصيد الصورة المميز: Freepik.
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- PlatoData.Network Vertical Generative Ai. تمكين نفسك. الوصول هنا.
- أفلاطونايستريم. ذكاء Web3. تضخيم المعرفة. الوصول هنا.
- أفلاطون كربون، كلينتك ، الطاقة، بيئة، شمسي، إدارة المخلفات. الوصول هنا.
- أفلاطون هيلث. التكنولوجيا الحيوية وذكاء التجارب السريرية. الوصول هنا.
- المصدر https://dataconomy.com/2024/03/15/openai-sora-training-data-controversy/