شعار زيفيرنت

الطاقة المستمرة نقل جسيمات مونت كارلو على مسرعات AI HW

التاريخ:

تم نشر ورقة فنية بعنوان "خوارزميات فعالة لنقل جسيمات مونت كارلو على أجهزة تسريع الذكاء الاصطناعي" من قبل باحثين في مختبر أرجون الوطني بجامعة شيكاغو وشركة سيريبراس سيستمز.

المستخلص:

"لقد أدى الاتجاه الأخير نحو التعلم العميق إلى تطوير مجموعة متنوعة من هياكل تسريع الذكاء الاصطناعي المبتكرة للغاية. أحد هذه التصميمات، وهو Cerebras Wafer-Scale Engine 2 (WSE-2)، يتميز بسعة 40 جيجابايت من ذاكرة الوصول العشوائي SRAM على الرقاقة، مما يجعله منصة جذابة محتملة لأحمال عمل محاكاة HPC المرتبطة بزمن الوصول أو النطاق الترددي. في هذه الدراسة، قمنا بدراسة جدوى إجراء نقل جسيمات مونت كارلو (MC) للطاقة المستمرة على WSE-2 عن طريق نقل نواة رئيسية من خوارزمية نقل MC إلى نموذج برمجة CSL الخاص بـ Cerebras. تم تطوير واختبار خوارزميات جديدة لتقليل تكاليف الاتصالات ومعالجة موازنة التحميل. تم العثور على WSE-2 يعمل أسرع 130 مرة من إصدار CUDA المحسن للغاية من النواة التي تعمل على وحدة معالجة الرسوميات NVIDIA A100 - وهو ما يفوق بشكل كبير الزيادة المتوقعة في الأداء نظرًا للاختلاف في أعداد الترانزستورات بين البنيات.

أعثر على ورقة فنية هنا. نُشرت في نوفمبر 2023 (نسخة ما قبل الطباعة).

ترام، جون، برايس ألين، كازوتومو يوشي، أندرو سيجل، ولايتون ويلسون. "خوارزميات فعالة لنقل جسيمات مونت كارلو على أجهزة تسريع الذكاء الاصطناعي." arXiv طبعة أولية arXiv:2311.01739 (2023).

القراءة ذات الصلة
معالجات التقسيم لأحمال عمل الذكاء الاصطناعي
تعد المعالجة ذات الأغراض العامة والافتقار إلى المرونة بعيدة كل البعد عن كونها مثالية لأحمال عمل الذكاء الاصطناعي/التعلم الآلي.
مقايضات المعالج لأحمال عمل الذكاء الاصطناعي
تتسع الفجوات بين التقدم التكنولوجي والطلبات، وأصبح سد هذه الفجوات أكثر صعوبة.
التخصص مقابل. التعميم في المعالجات
ما الذي يتطلبه تحقيق التخصيص الشامل على الحافة، بأداء عالٍ وطاقة منخفضة؟

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة