شعار زيفيرنت

ما هي وحدة معالجة الرسومات؟ الرقائق التي تغذي طفرة الذكاء الاصطناعي، ولماذا تبلغ قيمتها تريليونات

التاريخ:

مع اندفاع العالم للاستفادة من أحدث موجة من تقنيات الذكاء الاصطناعي، أصبحت قطعة واحدة من الأجهزة عالية التقنية سلعة ساخنة بشكل مدهش: وحدة معالجة الرسومات، أو GPU.

يمكن بيع وحدة معالجة الرسومات (GPU) الأفضل في فئتها عشرات الآلاف من الدولارات، وشهدت الشركة المصنعة الرائدة Nvidia تقييمها السوقي تجاوزت 2 تريليون دولار مع ارتفاع الطلب على منتجاتها.

وحدات معالجة الرسومات ليست مجرد منتجات ذكاء اصطناعي متطورة أيضًا. توجد وحدات معالجة رسومات أقل قوة في الهواتف وأجهزة الكمبيوتر المحمولة وأجهزة الألعاب أيضًا.

ربما تتساءل الآن: ما هي وحدة معالجة الرسومات (GPU) حقًا؟ وما الذي يجعلهم مميزين إلى هذا الحد؟

ما هي وحدة معالجة الرسوميات GPU؟

تم تصميم وحدات معالجة الرسوميات في الأصل بشكل أساسي لإنشاء وعرض مشاهد وكائنات ثلاثية الأبعاد معقدة بسرعة، مثل تلك الموجودة في ألعاب الفيديو و التصميم بمساعدة الحاسوب برمجة. تتعامل وحدات معالجة الرسومات الحديثة أيضًا مع مهام مثل فك الضغط تدفقات الفيديو.

إن "عقل" معظم أجهزة الكمبيوتر عبارة عن شريحة تسمى وحدة المعالجة المركزية (CPU). يمكن استخدام وحدات المعالجة المركزية (CPUs) لإنشاء مشاهد رسومية وفك ضغط مقاطع الفيديو، ولكنها عادة ما تكون أبطأ بكثير وأقل كفاءة في هذه المهام مقارنة بوحدات معالجة الرسومات. تعتبر وحدات المعالجة المركزية أكثر ملاءمة لمهام الحساب العامة، مثل معالجة النصوص وتصفح صفحات الويب.

كيف تختلف وحدات معالجة الرسومات عن وحدات المعالجة المركزية؟

تتكون وحدة المعالجة المركزية الحديثة النموذجية من 8 إلى 16 بوصةالنوى"، يمكن لكل منها معالجة المهام المعقدة بطريقة تسلسلية.

من ناحية أخرى، تحتوي وحدات معالجة الرسومات على آلاف النوى الصغيرة نسبيًا، والتي تم تصميمها لتعمل جميعها في نفس الوقت ("بالتوازي") لتحقيق معالجة شاملة سريعة. وهذا يجعلها مناسبة تمامًا للمهام التي تتطلب عددًا كبيرًا من العمليات البسيطة التي يمكن إجراؤها في نفس الوقت، بدلاً من واحدة تلو الأخرى.

تأتي وحدات معالجة الرسومات التقليدية في نكهتين رئيسيتين.

أولاً، هناك شرائح مستقلة، والتي غالبًا ما تأتي في بطاقات إضافية لأجهزة الكمبيوتر المكتبية الكبيرة. ثانيًا، وحدات معالجة الرسومات المدمجة مع وحدة المعالجة المركزية في نفس حزمة الشريحة، والتي غالبًا ما توجد في أجهزة الكمبيوتر المحمولة ووحدات التحكم في الألعاب مثل PlayStation 5. وفي كلتا الحالتين، تتحكم وحدة المعالجة المركزية في ما تفعله وحدة معالجة الرسومات.

لماذا تعتبر وحدات معالجة الرسومات مفيدة جدًا للذكاء الاصطناعي؟

اتضح أنه يمكن إعادة استخدام وحدات معالجة الرسومات للقيام بأكثر من مجرد إنشاء مشاهد رسومية.

العديد من تقنيات التعلم الآلي وراء الذكاء الاصطناعي، مثل الشبكات العصبية العميقة، تعتمد بشكل كبير على أشكال مختلفة من ضرب المصفوفات.

هذه عملية رياضية يتم فيها ضرب مجموعات كبيرة جدًا من الأرقام وجمعها معًا. هذه العمليات مناسبة تمامًا للمعالجة المتوازية وبالتالي يمكن إجراؤها بسرعة كبيرة بواسطة وحدات معالجة الرسومات.

ما هو التالي بالنسبة لوحدات معالجة الرسومات؟

تتزايد براعة معالجة الأرقام لوحدات معالجة الرسومات بشكل مطرد بسبب الارتفاع في عدد النوى وسرعات تشغيلها. هذه التحسينات مدفوعة في المقام الأول بالتحسينات في تصنيع الرقائق من قبل شركات مثل TSMC في تايوان.

حجم الترانزستورات الفردية - المكونات الأساسية لأي شريحة كمبيوتر - آخذ في التناقص، مما يسمح بوضع المزيد من الترانزستورات في نفس المساحة المادية.

ومع ذلك، هذه ليست القصة بأكملها. في حين أن وحدات معالجة الرسومات التقليدية مفيدة لمهام الحساب المتعلقة بالذكاء الاصطناعي، إلا أنها ليست مثالية.

مثلما تم تصميم وحدات معالجة الرسومات في الأصل لتسريع أجهزة الكمبيوتر من خلال توفير معالجة متخصصة للرسومات، هناك مسرعات مصممة لتسريع مهام التعلم الآلي. غالبًا ما يشار إلى هذه المسرعات باسم وحدات معالجة الرسومات لمراكز البيانات.

بدأت بعض المسرعات الأكثر شهرة، والتي صنعتها شركات مثل AMD وNvidia، كوحدات معالجة رسومات تقليدية. مع مرور الوقت، تطورت تصميماتها للتعامل بشكل أفضل مع مهام التعلم الآلي المختلفة، على سبيل المثال من خلال دعم "" الأكثر كفاءة "تعويم الدماغ"تنسيق الأرقام.

مسرّعات أخرى، مثل Google وحدات معالجة الموتر وتينستورنت نوى Tensix، تم تصميمها من الألف إلى الياء لتسريع الشبكات العصبية العميقة.

عادةً ما تأتي وحدات معالجة الرسومات في مراكز البيانات ومسرعات الذكاء الاصطناعي الأخرى بذاكرة أكبر بكثير من بطاقات GPU الإضافية التقليدية، وهو أمر بالغ الأهمية لتدريب نماذج الذكاء الاصطناعي الكبيرة. كلما كان نموذج الذكاء الاصطناعي أكبر، كلما كان أكثر قدرة ودقة.

لزيادة تسريع التدريب والتعامل مع نماذج الذكاء الاصطناعي الأكبر حجمًا، مثل ChatGPT، يمكن تجميع العديد من وحدات معالجة الرسومات في مراكز البيانات معًا لتشكيل كمبيوتر فائق السرعة. وهذا يتطلب برامج أكثر تعقيدًا لتسخير قوة معالجة الأرقام المتاحة بشكل صحيح. نهج آخر هو إنشاء مسرع واحد كبير جدًا، مثل ال "معالج على نطاق الرقاقة"من إنتاج شركة Cerebras.

هل الرقائق المتخصصة هي المستقبل؟

وحدات المعالجة المركزية لم تقف ساكنة أيضًا. تحتوي وحدات المعالجة المركزية الحديثة من AMD وIntel على تعليمات مدمجة منخفضة المستوى تعمل على تسريع عملية معالجة الأرقام التي تتطلبها الشبكات العصبية العميقة. تساعد هذه الوظيفة الإضافية بشكل أساسي في مهام "الاستدلال"، أي استخدام نماذج الذكاء الاصطناعي التي تم تطويرها بالفعل في مكان آخر.

لتدريب نماذج الذكاء الاصطناعي في المقام الأول، لا تزال هناك حاجة إلى مسرعات كبيرة تشبه وحدة معالجة الرسومات.

من الممكن إنشاء مسرعات أكثر تخصصًا لخوارزميات التعلم الآلي المحددة. في الآونة الأخيرة، على سبيل المثال، قامت شركة تدعى Groq بإنتاج "وحدة معالجة اللغة” (LPU) مصمم خصيصًا لتشغيل نماذج اللغات الكبيرة على غرار ChatGPT.

ومع ذلك، فإن إنشاء هذه المعالجات المتخصصة يتطلب موارد هندسية كبيرة. يُظهر التاريخ أن استخدام وشعبية أي خوارزمية معينة للتعلم الآلي تميل إلى الارتفاع ثم تتضاءل، لذلك قد تصبح الأجهزة المتخصصة باهظة الثمن قديمة بسرعة.

ومع ذلك، بالنسبة للمستهلك العادي، فمن غير المرجح أن يكون هذا مشكلة. من المرجح أن تستمر وحدات معالجة الرسومات والرقائق الأخرى الموجودة في المنتجات التي تستخدمها في التزايد بهدوء.

يتم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقال الأصلي.

الصورة الائتمان: NVIDIA

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة