شعار زيفيرنت

ميتا تكشف عن نموذج تجزئة الصور بالذكاء الاصطناعي ، SAM

التاريخ:

شركة ألفابت شراء مراجعات جوجل شارك معلومات حول أجهزة الكمبيوتر العملاقة التي يستخدمها لتدريب نماذج الذكاء الاصطناعي ، مدعيا أنها موفرة للطاقة وأسرع من في نفيديا شريحة A100. أنتجت Google شريحة مخصصة تسمى وحدة معالجة Tensor (TPU) ، وهي في جيلها الرابع.

وفقًا لعملاق التكنولوجيا ، تستخدم الشركة الرقائق في أكثر من 90٪ من أعمال تدريب الذكاء الاصطناعي الخاصة بالشركة. تضيف Google الرقاقة التي تغذي البيانات من خلال النماذج لجعلها عملية في مهام مثل النصوص مثل الإنسان أو لإنشاء الصور.

من الناحية المثالية، تم تصميم TPUs لتسريع مرحلة الاستدلال للشبكات العصبية العميقة (DNNs) ، والتي تُستخدم في العديد من تطبيقات التعلم الآلي مثل التعرف على الصور والتعرف على الكلام ومعالجة اللغة الطبيعية والمزيد. تُستخدم TPUs أيضًا لتدريب DNNs.

اقرأ أيضا: تويتر في المياه الساخنة القانونية حيث تهدد ألمانيا بغرامة

يوم الثلاثاء جوجل نشرت ورقة علمية يشرح كيف تم ربط أكثر من 4 من الرقائق. وفقًا للشركة ، فقد استخدمت مفاتيح بصرية مطورة خصيصًا للحصول على آلات فردية في مكان واحد.

في الورقة العلمية ، قالت Google إنه بالنسبة للأنظمة ذات الحجم المماثل ، فإن رقائقها أسرع بما يصل إلى 1.7 مرة وأكثر كفاءة في استهلاك الطاقة 1.9 مرة من نظام يعتمد على شريحة Nvidia's A100 التي كانت موجودة في السوق في نفس الوقت مثل الجيل الرابع من TPU.

مطلوب مزيد من التحسينات

يرى المحللون أن سوق رقائق استدلال البيانات سينمو بسرعة مع وضع الشركات تقنيات الذكاء الاصطناعى في منتجاتهم. ومع ذلك ، تعمل شركات مثل Google بالفعل على كيفية الحفاظ على الغطاء على التكاليف الإضافية التي سيضيفها القيام بذلك ، وأحد التكاليف هو الكهرباء.

نماذج اللغات الكبيرة التي تقود منتجات مثل جوجل Bard أو OpenAI's شات جي بي تي نمت بشكل كبير في الحجم. في الواقع هي كبيرة جدًا بحيث لا يمكن تخزينها على شريحة واحدة.

على هذا النحو ، أصبح تحسين هذه الاتصالات نقطة رئيسية للمنافسة بين الشركات التي تبني حواسيب عملاقة تعمل بالذكاء الاصطناعي.

بالإضافة إلى ذلك ، يتم تقسيم هذه النماذج عبر آلاف الرقائق وتعمل معًا لأسابيع أو أكثر لتدريب النموذج.

تم تدريب نموذج اللغة الأكثر أهمية الذي تم الكشف عنه علنًا من Google حتى الآن ، PaLM ، من خلال تقسيمه عبر اثنين من أجهزة الكمبيوتر العملاقة ذات الشرائح البالغ عددها 4 على مدار 000 يومًا.

وفقًا للشركة ، فإن أجهزة الكمبيوتر العملاقة لديها تجعل من السهل تكوين الاتصالات بين الرقائق أثناء التنقل.

قال زميل Google نورم جوبي ومهندس Google المتميز ديفيد باترسون في مشاركة مدونة حول النظام: "يجعل تبديل الدوائر من السهل التوجيه حول المكونات الفاشلة"

"تتيح لنا هذه المرونة حتى تغيير طوبولوجيا الاتصال بين أجهزة الكمبيوتر العملاقة لتسريع أداء نموذج التعلم الآلي (ML)."

لا توجد مقارنة بحسب جوجل

تهيمن Nvidia على السوق لتدريب نماذج الذكاء الاصطناعي بكميات هائلة من البيانات. ومع ذلك ، بعد تدريب هذه النماذج ، يتم استخدامها على نطاق أوسع فيما يسمى "الاستدلال" من خلال القيام بمهام مثل إنشاء استجابة نصية للمطالبات وتحديد ما إذا كانت الصورة تحتوي على قطة.

البرامج الرئيسية تستخدم الاستوديوهات حاليًا معالجات Nvidia's A100. رقائق A100 هي الرقائق الأكثر استخدامًا التي يستخدمها استوديو التطوير لأحمال عمل التعلم الآلي للذكاء الاصطناعي.

A100 مناسب لنماذج التعلم الآلي التي تعمل بها أدوات مثل ChatGPT ، بنج AI، أو الانتشار المستقر. إنه قادر على إجراء العديد من العمليات الحسابية البسيطة في وقت واحد ، وهو أمر مهم للتدريب واستخدام نماذج الشبكة العصبية.

بينما رفضت Nvidia طلبات للتعليق من قبل رويترز، قالت Google إنها لم تقارن جيلها الرابع بشريحة H100 الرئيسية الحالية من Nvidia لأنها دخلت السوق بعد شريحة Google ، وهي مصنوعة بتقنية أحدث.

قالت Google أيضًا إن الشركة لديها "خط أنابيب صحي من النصائح المستقبلية" ، دون إعطاء تفاصيل أكثر دقة ، لكنها ألمحت إلى أنها قد تعمل على TPU جديدة تنافس Nvidia H100.

على الرغم من أن Google لا تنشر سوى تفاصيل حول جهاز الكمبيوتر العملاق الخاص بها الآن ، إلا أنها كانت متصلة بالإنترنت داخل الشركة منذ عام 2020 في مركز بيانات في مقاطعة Mayes County ، أوكلاهوما.

قالت شركة جوجل إن الشركة الناشئة Midjourney استخدمت النظام لتدريب نموذجه ، والذي ينتج صورًا جديدة بعد تلقيه بضع كلمات من النص.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة