شعار زيفيرنت

الرئيس التنفيذي لشركة OpenAI حول مخاوف السلامة في الذكاء الاصطناعي والحقيقة حول تطوير ChatGPT-5

التاريخ:

OpenAI تناول الرئيس التنفيذي سام التمان مؤخرًا المخاوف المحيطة بتطوير التكرار التالي لـ شات جي بي تي.

سام التمان رجل أعمال معروف ومستثمر في وادي السيليكون. شارك في تأسيس تطبيق الشبكات الاجتماعية Loopt في عام 2005 ، والذي استحوذت عليه شركة Green Dot Corporation لاحقًا. كما شغل منصب رئيس مسرع بدء التشغيل Y Combinator من 2014 إلى 2019 ، حيث عمل عن كثب مع مجموعة واسعة من الشركات الناشئة وساعد في تشكيل اتجاه صناعة التكنولوجيا. يُعرف ألتمان بآرائه الصريحة حول مستقبل التكنولوجيا ، بما في ذلك دعوته للدخل الأساسي العالمي وإيمانه بإمكانية الذكاء الاصطناعي لتغيير المجتمع. وهو مستثمر نشط في العديد من الشركات الناشئة ، مع التركيز بشكل خاص على الشركات التي تعمل على أحدث التقنيات مثل المركبات ذاتية القيادة و blockchain.

وفقا ل البند بواسطة James Vincent for The Verge الذي نُشر في 14 أبريل ، أكد الرئيس التنفيذي لشركة OpenAI والمؤسس المشارك Sam Altman في 13 أبريل أن شركته لا تدرب حاليًا GPT-5 ، الوريث المفترض لنموذج لغة AI الخاص بها GPT-4 ، والذي تم إصداره في يمشي. تم تقديم تعليقات ألتمان خلال "مستقبل الأعمال مع الذكاء الاصطناعي" حدثالتي وقعت في مركز سامبرج للمؤتمرات في معهد ماساتشوستس للتكنولوجيا ، حيث خاطب أ رسالة مفتوحة المتداولة بين عالم التكنولوجيا مطالبة المعامل مثل OpenAI بإيقاف التطوير مؤقتًا لأنظمة الذكاء الاصطناعي "أقوى من GPT-4".

كما قد تتذكر ، تم نشر الرسالة المفتوحة بواسطة معهد مستقبل الحياة في 29 مارس ، وكان بعنوان "Pause Giant AI Experiments: An Open Letter." ودعا إلى وقف مؤقت لتطوير أنظمة قوية للذكاء الاصطناعي مثل GPT-4، مما أثار جدلاً داخل مجتمع التكنولوجيا.

نص الخطاب المفتوح على أنه "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة". دعا المؤلفون إلى توقف عام وقابل للتحقق لمدة ستة أشهر على الأقل لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4. كما حثوا مختبرات الذكاء الاصطناعي على تطوير بروتوكولات أمان مشتركة لضمان تصميم وتطوير أنظمة الذكاء الاصطناعي بشكل آمن.

<!–

غير مستخدم

-> <!–

غير مستخدم

->

ومن بين الموقعين البارزين على الرسالة المفتوحة ، إيلون ماسك ، الرئيس التنفيذي لشركة SpaceX و Tesla و Twitter. ستيف وزنياك ، المؤسس المشارك لشركة Apple ؛ بيل جيتس ، الشريك المؤسس لشركة مايكروسوفت ؛ وجاري ماركوس ، باحث في الذكاء الاصطناعي وأستاذ فخري بجامعة نيويورك.

قال ألتمان إن الرسالة "تفتقد إلى معظم الفروق التقنية حول المكان الذي نحتاج فيه إلى التوقف المؤقت" وأوضح أن OpenAI لا يقوم حاليًا بتدريب GPT-5 ولن يكون كذلك لبعض الوقت. لاحظ ألتمان ، "نحن لسنا ولن نفعل ذلك لبعض الوقت. وبهذا المعنى ، كان الأمر سخيفًا نوعًا ما ". ومع ذلك ، شدد على أن OpenAI تعمل على جوانب أخرى من GPT-4 وتنظر في آثار السلامة لهذا العمل. صرح ألتمان ، "نحن نقوم بأشياء أخرى على رأس GPT-4 أعتقد أن لديها كل أنواع قضايا السلامة التي من المهم معالجتها والتي تم استبعادها تمامًا من الرسالة."

[المحتوى جزءا لا يتجزأ]

يلاحظ The Verge أن النقاش حول أمان الذكاء الاصطناعي يواجه تحديًا بسبب صعوبة قياس وتتبع التقدم. يشير فينسنت إلى مغالطة أرقام الإصدارات ، حيث يُفترض أن التحديثات التقنية المرقمة تعكس تحسينات محددة وخطية في القدرة ، وهو مفهوم خاطئ نشأ في عالم تكنولوجيا المستهلك. غالبًا ما يتم تطبيق هذا المنطق على أنظمة مثل نماذج لغة OpenAI ، مما يؤدي إلى بعض الارتباك والمعلومات الخاطئة المحتملة.

يجادل فينسنت بأن تأكيد Altman على أن OpenAI لا تقوم حاليًا بتطوير GPT-5 قد لا يكون مصدر عزاء لأولئك القلقين بشأن سلامة الذكاء الاصطناعي ، حيث لا تزال الشركة تعمل على توسيع إمكانات GPT-4 ، ويقوم آخرون في الصناعة ببناء أدوات طموحة مماثلة.

في الختام ، كتب فينسينت ، "حتى لو كانت حكومات العالم بطريقة ما قادرة على فرض حظر على التطورات الجديدة للذكاء الاصطناعي ، فمن الواضح أن المجتمع لديه يده الكاملة بالأنظمة المتاحة حاليًا. بالتأكيد ، GPT-5 لم يأت بعد ، ولكن هل يهم عندما لا يزال GPT-4 غير مفهوم تمامًا؟ "

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة