شعار زيفيرنت

AWS Inferentia متاح الآن في 11 منطقة AWS ، مع أداء هو الأفضل في فئته لتشغيل نماذج اكتشاف الكائنات على نطاق واسع

التاريخ:

قامت AWS بتوسيع نطاق توفر حالات Amazon EC2 Inf1 إلى أربع مناطق AWS جديدة ، وبذلك يصل إجمالي عدد المناطق المدعومة إلى 11: شرق الولايات المتحدة (شمال فيرجينيا ، أوهايو) ، وغرب الولايات المتحدة (أوريغون) ، وآسيا والمحيط الهادئ (مومباي ، وسنغافورة ، وسيدني ، وطوكيو) ، وأوروبا (فرانكفورت ، أيرلندا ، باريس) وأمريكا الجنوبية (ساو باولو).

يتم تشغيل مثيلات Amazon EC2 Inf1 بواسطة استدلال AWS الرقائق ، المصممة خصيصًا لتزويدك بأقل تكلفة لكل استنتاج في السحابة وتقليل الحواجز التي يواجهها المطورون يوميًا لاستخدام التعلم الآلي (ML) على نطاق واسع. يمكن للعملاء الذين يستخدمون نماذج مثل YOLO v3 و YOLO v4 الحصول على إنتاجية أعلى بما يصل إلى 1.85 مرة وتكلفة أقل بنسبة 40٪ لكل استنتاج مقارنة بالمثيلات المستندة إلى وحدة معالجة الرسومات EC2 G4.

أثناء قيامك بتوسيع نطاق استخدامك للتعلم العميق عبر التطبيقات الجديدة ، قد تكون ملزمًا بالتكلفة العالية لتشغيل نماذج ML المدربة في الإنتاج. في كثير من الحالات ، يتم إنفاق ما يصل إلى 90٪ من تكلفة البنية التحتية على تطوير وتشغيل تطبيق ML على الاستدلال ، مما يجعل الحاجة إلى بنية تحتية عالية الأداء وفعالة من حيث التكلفة للاستدلال ML أمرًا بالغ الأهمية. تم إنشاء مثيلات Inf1 من الألف إلى الياء لتقديم أداء أسرع واستدلال ML أكثر فعالية من حيث التكلفة مقارنة بالمثيلات المستندة إلى وحدة معالجة الرسومات. يمنحك هذا الأداء وبنية التكلفة التي تحتاجها لنشر نماذج التعلم العميق الخاصة بك بثقة عبر مجموعة واسعة من التطبيقات.

أداء AWS Neuron SDK ودعم نماذج ML الجديدة

يمكنك نشر نماذج ML على مثيلات Inf1 محليًا باستخدام أطر عمل ML الشائعة مثل TensorFlow و PyTorch و MXNet. يمكنك نشر نماذجك الحالية في مثيلات Amazon EC2 Inf1 بأقل تغييرات في التعليمات البرمجية باستخدام AWS نيورون SDK ، الذي يتكامل مع أطر ML الشائعة هذه. يمنحك هذا حرية الحفاظ على قابلية نقل الأجهزة والاستفادة من أحدث التقنيات دون الارتباط بمكتبات البرامج الخاصة بالبائع.

منذ إطلاقه ، شهد Neuron SDK تحسنًا كبيرًا في اتساع نطاق النماذج التي تقدم أفضل أداء في فئتها بجزء بسيط من التكلفة. يتضمن ذلك نماذج معالجة اللغة الطبيعية مثل BERT الشائعة ونماذج تصنيف الصور (ResNet و VGG) ونماذج اكتشاف الكائنات (OpenPose و SSD). يوفر أحدث إصدار من Neuron (1.8.0) تحسينات تعمل على تحسين أداء YOLO v3 و v4 و VGG16 و SSD300 و BERT. كما أنه يحسن عمليات النشر التشغيلية لتطبيقات الاستدلال واسعة النطاق ، مع وكيل إدارة جلسة مدمج في جميع أطر عمل تعلم الآلة المدعومة وأداة عصبية جديدة تسمح لك بسهولة توسيع نطاق مراقبة أساطيل كبيرة من تطبيقات الاستدلال.

قصص نجاح العملاء

منذ إطلاق مثيلات Inf1 ، بدأت مجموعة واسعة من العملاء ، من الشركات الكبيرة إلى الشركات الناشئة ، بالإضافة إلى خدمات Amazon ، في استخدامها لتشغيل أعباء العمل الإنتاجية.

Anthem هي إحدى شركات الفوائد الصحية الرائدة في البلاد ، وتخدم احتياجات الرعاية الصحية لأكثر من 40 مليون عضو في عشرات الدول. يستخدمون التعلم العميق لأتمتة توليد رؤى قابلة للتنفيذ من آراء العملاء عبر نماذج اللغة الطبيعية.

يقول نعمان لعنايت ، دكتوراه ، عالم الذكاء الاصطناعي / البيانات الرئيسي في Anthem: "تطبيقنا مكثف من الناحية الحسابية ويحتاج إلى نشره بأداء عالي الأداء". "لقد نشرنا عبء عمل استنتاج التعلم العميق بسلاسة على مثيلات Amazon EC2 Inf1 المدعومة بمعالج AWS Inferentia. توفر مثيلات Inf1 الجديدة إنتاجية أعلى بمرتين للمثيلات المستندة إلى وحدة معالجة الرسومات وتسمح لنا بتبسيط أعباء عمل الاستدلال ".

لدى Condé Nast ، عميل AWS آخر ، محفظة عالمية تضم أكثر من 20 علامة تجارية رائدة في مجال الوسائط ، بما في ذلك Wired و Vogue و Vanity Fair.

يقول Paul Fryzel ، المهندس الرئيسي في البنية التحتية للذكاء الاصطناعي في Condé Nast: "في غضون أسابيع قليلة ، تمكن فريقنا من دمج محرك التوصيات الخاص بنا مع شرائح AWS Inferentia". "يتيح هذا الاتحاد تحسينات متعددة لوقت التشغيل لنماذج اللغة الطبيعية الحديثة على مثيلات Inf1 من SageMaker. ونتيجة لذلك ، لاحظنا تحسنًا في الأداء بنسبة 72٪ في التكلفة مقارنة بمثيلات GPU التي تم نشرها سابقًا ".

بدء

الطريقة الأسهل والأسرع لبدء استخدام مثيلات Inf1 هي عبر الأمازون SageMaker، خدمة مُدارة بالكامل لبناء وتدريب ونشر نماذج ML. إذا كنت تفضل إدارة منصات تطوير تطبيقات ML الخاصة بك ، فيمكنك البدء إما بتشغيل مثيلات Inf1 باستخدام AWS للتعلم العميق AMIs، والتي تتضمن Neuron SDK ، أو تستخدم مثيلات Inf1 عبر خدمة أمازون مطاطا Kubernetes (Amazon EKS) أو خدمة الأمازون المرنة للحاويات (Amazon ECS) لتطبيقات ML المعبأة في حاويات.

لمزيد من المعلومات، راجع مثيلات Amazon EC2 Inf1.


عن المؤلف

غادي هت هو مدير أول لتطوير الأعمال في AWS. يتمتع جادي بخبرة تزيد عن 20 عامًا في تخصصات الهندسة والأعمال. بدأ حياته المهنية كمهندس برمجيات مضمن ، ثم انتقل بعد ذلك إلى مناصب قيادية في المنتج. منذ عام 2013 ، يقود Gadi تطوير الأعمال الفنية لـ Annapurna Labs وإدارة المنتجات التي تركز على برامج تسريع الأجهزة ومنتجات الأجهزة مثل مثيلات EC2 FPGA F1 و AWS Inferentia جنبًا إلى جنب مع Neuron SDK ، مما يسرع التعلم الآلي في السحابة.

المصدر: https://aws.amazon.com/blogs/machine-learning/aws-inferentia-is-now-available-in-11-aws-regions-with-best-in-class-performance-for-running- نماذج الكشف عن الأشياء على نطاق واسع /

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة