شعار زيفيرنت

كيف قامت Booking.com بتحديث إطار تجربة التعلم الآلي الخاص بها باستخدام Amazon SageMaker | خدمات الويب الأمازون

التاريخ:

تمت كتابة هذا المنشور بالاشتراك مع كوستيا كوفمان وجيني توكار من Booking.com.

كشركة رائدة عالميًا في صناعة السفر عبر الإنترنت، بوكينح.كوم تسعى دائمًا إلى إيجاد طرق مبتكرة لتعزيز خدماتها وتزويد العملاء بتجارب مخصصة وسلسة. يلعب فريق التصنيف في Booking.com دوراً محورياً في ضمان تحسين خوارزميات البحث والتوصية لتقديم أفضل النتائج لمستخدميها.

من خلال مشاركة الموارد الداخلية مع الفرق الداخلية الأخرى، غالبًا ما واجه علماء التعلم الآلي (ML) في فريق التصنيف أوقات انتظار طويلة للوصول إلى الموارد الخاصة بالتدريب النموذجي والتجريب - مما يمثل تحديًا لقدرتهم على التجربة والابتكار بسرعة. إدراكًا للحاجة إلى بنية تحتية حديثة لتعلم الآلة، شرع فريق التصنيف في رحلة لاستخدام قوة الأمازون SageMaker لبناء نماذج تعلم الآلة وتدريبها ونشرها على نطاق واسع.

تعاونت Booking.com مع الخدمات المهنية AWS لبناء حل لتسريع وقت طرح نماذج تعلم الآلة المحسنة في السوق من خلال التحسينات التالية:

  • تقليل أوقات الانتظار للحصول على الموارد للتدريب والتجريب
  • تكامل قدرات تعلم الآلة الأساسية مثل ضبط المعلمة الفائقة
  • دورة تطوير مخفضة لنماذج تعلم الآلة

إن تقليل أوقات الانتظار يعني أن الفريق يمكنه تكرار النماذج وتجربتها بسرعة، والحصول على رؤى بوتيرة أسرع بكثير. يسمح استخدام المثيلات المتاحة عند الطلب لـ SageMaker بتقليل وقت الانتظار بمقدار عشرة أضعاف. كانت إمكانات تعلم الآلة الأساسية مثل ضبط المعلمات الفائقة وإمكانية شرح النموذج غير موجودة في مكان العمل. جلبت رحلة تحديث الفريق هذه الميزات من خلال الضبط التلقائي لنموذج Amazon SageMaker و توضيح Amazon SageMaker. أخيرًا، كان طموح الفريق هو تلقي تعليقات فورية على كل تغيير يتم إجراؤه في الكود، مما يقلل من حلقة التعليقات من دقائق إلى لحظة، وبالتالي تقليل دورة التطوير لنماذج تعلم الآلة.

في هذا المنشور، نتعمق في الرحلة التي قام بها فريق التصنيف في Booking.com حيث قاموا بتسخير إمكانات SageMaker لتحديث إطار تجربة تعلم الآلة الخاص بهم. ومن خلال القيام بذلك، لم يتغلبوا على التحديات الحالية فحسب، بل قاموا أيضًا بتحسين تجربة البحث لديهم، الأمر الذي استفاد منه ملايين المسافرين حول العالم في نهاية المطاف.

نهج التحديث

يتكون فريق التصنيف من العديد من علماء تعلم الآلة الذين يحتاج كل منهم إلى تطوير واختبار نموذجه الخاص دون الاتصال بالإنترنت. عندما يتم اعتبار النموذج ناجحًا وفقًا للتقييم دون الاتصال بالإنترنت، يمكن نقله إلى اختبار أ/ب للإنتاج. إذا أظهر تحسنًا عبر الإنترنت، فيمكن نشره لجميع المستخدمين.

كان الهدف من هذا المشروع هو إنشاء بيئة سهلة الاستخدام لعلماء تعلم الآلة ليتم تشغيلها بسهولة وقابلة للتخصيص خطوط أنابيب بناء نموذج Amazon SageMaker لاختبار فرضياتهم دون الحاجة إلى برمجة وحدات طويلة ومعقدة.

كان أحد التحديات العديدة التي تمت مواجهتها هو تكييف حل التدفق الداخلي الموجود للاستخدام على AWS. يتضمن الحل عنصرين رئيسيين:

  • تعديل وتوسيع التعليمات البرمجية الموجودة – تضمن الجزء الأول من حلنا تعديل وتوسيع التعليمات البرمجية الحالية لدينا لجعلها متوافقة مع البنية التحتية لـ AWS. وكان هذا أمرًا بالغ الأهمية في ضمان الانتقال السلس من المعالجة المحلية إلى المعالجة المستندة إلى السحابة.
  • تطوير حزمة العميل - تم تطوير حزمة عميل تعمل بمثابة غلاف حول واجهات برمجة تطبيقات SageMaker والتعليمات البرمجية الموجودة مسبقًا. تجمع هذه الحزمة بين الاثنين، مما يمكّن علماء تعلم الآلة من تكوين مسارات تعلم الآلة ونشرها بسهولة دون الحاجة إلى برمجة.

تكوين خط أنابيب SageMaker

تعد قابلية التخصيص أمرًا أساسيًا في خط أنابيب بناء النماذج، وقد تم تحقيق ذلك من خلاله config.ini، ملف تكوين واسع النطاق. يعمل هذا الملف كمركز تحكم لجميع مدخلات وسلوكيات خط الأنابيب.

التكوينات المتاحة في الداخل config.ini تتضمن:

  • تفاصيل خط الأنابيب - يمكن للممارس تحديد اسم المسار، وتحديد الخطوات التي يجب تشغيلها، وتحديد المكان الذي يجب تخزين المخرجات فيه خدمة تخزين أمازون البسيطة (Amazon S3)، وحدد مجموعات البيانات التي تريد استخدامها
  • تفاصيل حساب AWS – يمكنك تحديد المنطقة التي يجب تشغيل المسار فيها والدور الذي يجب استخدامه
  • التكوين الخاص بالخطوة - لكل خطوة في المسار، يمكنك تحديد تفاصيل مثل عدد ونوع المثيلات المراد استخدامها، بالإضافة إلى المعلمات ذات الصلة

يعرض التعليمة البرمجية التالية مثالاً لملف التكوين:

[BUILD]
pipeline_name = ranking-pipeline
steps = DATA_TRANFORM, TRAIN, PREDICT, EVALUATE, EXPLAIN, REGISTER, UPLOAD
train_data_s3_path = s3://...
...
[AWS_ACCOUNT]
region = eu-central-1
...
[DATA_TRANSFORM_PARAMS]
input_data_s3_path = s3://...
compression_type = GZIP
....
[TRAIN_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
epochs = 1
enable_sagemaker_debugger = True
...
[PREDICT_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
...
[EVALUATE_PARAMS]
instance_type = ml.m5.8xlarge
batch_size = 2048
...
[EXPLAIN_PARAMS]
check_job_instance_type = ml.c5.xlarge
generate_baseline_with_clarify = False
....

config.ini هو ملف يتم التحكم فيه بواسطة الإصدار ويديره Git، وهو يمثل الحد الأدنى من التكوين المطلوب لتشغيل مسار تدريب ناجح. أثناء التطوير، يمكن استخدام ملفات التكوين المحلية التي لا يتم التحكم في إصدارها. تحتاج ملفات التكوين المحلية هذه فقط إلى احتواء الإعدادات ذات الصلة بعملية تشغيل معينة، مما يوفر المرونة دون تعقيد. تم تصميم عميل إنشاء خطوط الأنابيب للتعامل مع ملفات التكوين المتعددة، مع إعطاء الأولوية لآخر ملف على الإعدادات السابقة.

خطوات خط أنابيب SageMaker

ينقسم خط الأنابيب إلى الخطوات التالية:

  • تدريب واختبار إعداد البيانات – يتم نسخ تيرابايت من البيانات الأولية إلى حاوية S3، ومعالجتها باستخدام غراء AWS وظائف لمعالجة Spark، مما يؤدي إلى تنظيم البيانات وتنسيقها لتحقيق التوافق.
  • قطار – تستخدم خطوة التدريب مقدر TensorFlow لوظائف تدريب SageMaker. يتم التدريب بطريقة موزعة باستخدام Horovod، ويتم تخزين نموذج النموذج الناتج في Amazon S3. بالنسبة لضبط المعلمة الفائقة، يمكن بدء مهمة تحسين المعلمة الفائقة (HPO)، واختيار أفضل نموذج بناءً على المقياس الموضوعي.
  • تنبؤ - في هذه الخطوة، تستخدم مهمة معالجة SageMaker عناصر النموذج المخزن لإجراء التنبؤات. تعمل هذه العملية بالتوازي على الأجهزة المتاحة، ويتم تخزين نتائج التنبؤ في Amazon S3.
  • تقييم - تقوم مهمة معالجة PySpark بتقييم النموذج باستخدام برنامج Spark النصي المخصص. يتم بعد ذلك تخزين تقرير التقييم في Amazon S3.
  • الحالة – بعد التقييم يتم اتخاذ القرار بشأن جودة النموذج. يعتمد هذا القرار على مقياس الحالة المحدد في ملف التكوين. إذا كان التقييم إيجابيا، يتم تسجيل النموذج كمعتمد؛ وإلا فسيتم تسجيله على أنه مرفوض. وفي كلتا الحالتين، يتم تسجيل تقرير التقييم والشرح، في حالة إنشائه، في السجل النموذجي.
  • نموذج الحزمة للاستدلال - باستخدام مهمة المعالجة، إذا كانت نتائج التقييم إيجابية، فسيتم تعبئة النموذج وتخزينه في Amazon S3 وتجهيزه للتحميل إلى بوابة ML الداخلية.
  • شرح – يُنشئ SageMaker Clarify تقريرًا قابلاً للتفسير.

يتم استخدام مستودعين متميزين. يحتوي المستودع الأول على التعريف وكود البناء لخط تعلم الآلة، ويحتوي المستودع الثاني على الكود الذي يتم تشغيله داخل كل خطوة، مثل المعالجة والتدريب والتنبؤ والتقييم. يسمح نهج المستودع المزدوج هذا بمزيد من النمطية، ويمكّن فرق العلوم والهندسة من التكرار بشكل مستقل على كود تعلم الآلة ومكونات خطوط تعلم الآلة.

يوضح الرسم البياني التالي سير عمل الحل.

ضبط تلقائي للنموذج

تتطلب نماذج التدريب على تعلم الآلة اتباع نهج تكراري لتجارب تدريبية متعددة لبناء نموذج نهائي قوي وفعال للاستخدام التجاري. يتعين على علماء تعلم الآلة اختيار نوع النموذج المناسب، وبناء مجموعات بيانات الإدخال الصحيحة، وضبط مجموعة المعلمات الفائقة التي تتحكم في عملية تعلم النموذج أثناء التدريب.

يمكن أن يؤثر اختيار القيم المناسبة للمعلمات الفائقة لعملية تدريب النموذج بشكل كبير على الأداء النهائي للنموذج. ومع ذلك، لا توجد طريقة فريدة أو محددة لتحديد القيم المناسبة لحالة استخدام معينة. في معظم الأوقات، سيحتاج علماء تعلم الآلة إلى تشغيل وظائف تدريبية متعددة بمجموعات مختلفة قليلاً من المعلمات الفائقة، ومراقبة مقاييس تدريب النموذج، ثم محاولة تحديد المزيد من القيم الواعدة للتكرار التالي. تُعرف عملية ضبط أداء النموذج أيضًا باسم تحسين المعلمات الفائقة (HPO)، ويمكن أن تتطلب في بعض الأحيان مئات التجارب.

اعتاد فريق التصنيف على إجراء HPO يدويًا في بيئتهم المحلية لأنه لم يتمكنوا إلا من إطلاق عدد محدود جدًا من وظائف التدريب بالتوازي. لذلك، كان عليهم تشغيل HPO بشكل تسلسلي، واختبار واختيار مجموعات مختلفة من قيم المعلمات الفائقة يدويًا، ومراقبة التقدم بانتظام. أدى هذا إلى إطالة عملية تطوير النموذج وضبطه والحد من العدد الإجمالي لتجارب HPO التي يمكن إجراؤها في فترة زمنية ممكنة.

مع الانتقال إلى AWS، تمكن فريق التصنيف من استخدام ميزة الضبط التلقائي للنماذج (AMT) في SageMaker. يمكّن AMT علماء تصنيف ML من إطلاق المئات من وظائف التدريب تلقائيًا ضمن نطاقات المعلمات الفائقة ذات الاهتمام للعثور على الإصدار الأفضل أداءً من النموذج النهائي وفقًا للمقياس المختار. أصبح بإمكان فريق التصنيف الآن الاختيار من بين أربع إستراتيجيات ضبط تلقائي مختلفة لاختيار المعلمات الفائقة الخاصة بهم:

  • بحث الشبكة - تتوقع AMT أن تكون جميع المعلمات الفائقة قيمًا فئوية، وستطلق وظائف تدريبية لكل مجموعة فئوية مميزة، واستكشاف مساحة المعلمات الفائقة بأكملها.
  • بحث عشوائي - سوف تقوم AMT باختيار مجموعات قيم المعلمات الفائقة بشكل عشوائي ضمن النطاقات المتوفرة. نظرًا لعدم وجود تبعية بين وظائف التدريب المختلفة واختيار قيمة المعلمة، يمكن إطلاق وظائف تدريب متوازية متعددة باستخدام هذه الطريقة، مما يؤدي إلى تسريع عملية اختيار المعلمة المثلى.
  • النظرية الافتراضية - يستخدم AMT تطبيق التحسين Bayesian لتخمين أفضل مجموعة من قيم المعلمات الفائقة، ويعاملها على أنها مشكلة انحدار. وسوف تأخذ في الاعتبار مجموعات المعلمات الفائقة التي تم اختبارها مسبقًا وتأثيرها على وظائف التدريب النموذجية من خلال اختيار المعلمات الجديدة، مما يؤدي إلى تحسين اختيار المعلمات الأكثر ذكاءً مع تجارب أقل، ولكنها ستطلق أيضًا وظائف التدريب بشكل تسلسلي فقط لتتمكن دائمًا من التعلم من التدريبات السابقة.
  • هايبرباند - ستستخدم AMT النتائج المتوسطة والنهائية لوظائف التدريب التي تقوم بتشغيلها لإعادة تخصيص الموارد ديناميكيًا نحو وظائف التدريب باستخدام تكوينات المعلمات الفائقة التي تظهر المزيد من النتائج الواعدة بينما تقوم تلقائيًا بإيقاف تلك ذات الأداء الضعيف.

مكّن AMT على SageMaker فريق التصنيف من تقليل الوقت الذي يقضيه في عملية ضبط المعلمات الفائقة لتطوير نموذجهم من خلال تمكينهم لأول مرة من إجراء تجارب متوازية متعددة، واستخدام إستراتيجيات الضبط التلقائي، وتنفيذ مهام تدريبية مكونة من رقمين في غضون أيام. شيء لم يكن ممكنا في أماكن العمل.

إمكانية شرح النموذج باستخدام SageMaker Clarify

تمكن إمكانية شرح النموذج ممارسي تعلم الآلة من فهم طبيعة وسلوك نماذج تعلم الآلة الخاصة بهم من خلال توفير رؤى قيمة لهندسة الميزات وقرارات الاختيار، والتي بدورها تعمل على تحسين جودة تنبؤات النموذج. أراد فريق التصنيف تقييم رؤى قابلية التفسير الخاصة بهم بطريقتين: فهم كيفية تأثير مدخلات الميزة على مخرجات النموذج عبر مجموعة البيانات بأكملها (قابلية التفسير العالمية)، وأيضًا القدرة على اكتشاف تأثير ميزة الإدخال لتنبؤ نموذج محدد في نقطة بيانات محل اهتمام ( التفسير المحلي). باستخدام هذه البيانات، يمكن لعلماء تصنيف ML اتخاذ قرارات مستنيرة حول كيفية تحسين أداء نموذجهم بشكل أكبر وحساب نتائج التنبؤ الصعبة التي قد يقدمها النموذج أحيانًا.

يمكّنك SageMaker Clarify من إنشاء تقارير شرح النموذج باستخدام شروحات شابلي المضافة (SHAP) عند تدريب نماذجك على SageMaker، مما يدعم إمكانية تفسير النماذج العالمية والمحلية. بالإضافة إلى تقارير قابلية شرح النموذج، يدعم SageMaker Clarify التحليلات الجارية لمقاييس تحيز ما قبل التدريب، ومقاييس تحيز ما بعد التدريب، ومخططات الاعتماد الجزئي. سيتم تشغيل الوظيفة كمهمة معالجة SageMaker ضمن حساب AWS وتتكامل مباشرة مع مسارات SageMaker.

سيتم إنشاء تقرير قابلية التفسير الشامل تلقائيًا في مخرجات الوظيفة وسيتم عرضه في ملف أمازون ساجميكر ستوديو البيئة كجزء من تجربة التدريب. إذا تم تسجيل هذا النموذج بعد ذلك في سجل نموذج SageMaker، فسيتم ربط التقرير أيضًا بالمنتج النموذجي. باستخدام كلا الخيارين، تمكن فريق التصنيف من تتبع إصدارات النماذج المختلفة والتغيرات السلوكية الخاصة بها بسهولة.

لاستكشاف تأثير ميزة الإدخال على تنبؤ واحد (قيم قابلية التفسير المحلية)، قام فريق التصنيف بتمكين المعلمة save_local_shap_values في مهام SageMaker Clarify وتمكن من تحميلها من مجموعة S3 لإجراء مزيد من التحليلات في دفاتر ملاحظات Jupyter في SageMaker Studio.

تُظهر الصور السابقة مثالاً لكيفية ظهور إمكانية شرح النموذج لنموذج تعلم الآلة التعسفي.

تحسين التدريب

أدى ظهور التعلم العميق (DL) إلى اعتماد تعلم الآلة بشكل متزايد على القوة الحسابية وكميات هائلة من البيانات. يواجه ممارسو تعلم الآلة عادة عقبة استخدام الموارد بكفاءة عند تدريب هذه النماذج المعقدة. عند إجراء تدريب على مجموعات حوسبة كبيرة، تنشأ تحديات مختلفة في تحسين استخدام الموارد، بما في ذلك مشكلات مثل اختناقات الإدخال/الإخراج، وتأخير إطلاق kernel، وقيود الذاكرة، والموارد غير المستغلة. إذا لم يتم ضبط تكوين مهمة التدريب بشكل دقيق لتحقيق الكفاءة، فقد تؤدي هذه العوائق إلى استخدام الأجهزة دون المستوى الأمثل، أو فترات تدريب طويلة، أو حتى عمليات تشغيل تدريب غير مكتملة. هذه العوامل تزيد من تكاليف المشروع وتؤخر الجداول الزمنية.

يساعد تحديد ملفات تعريف استخدام وحدة المعالجة المركزية ووحدة معالجة الرسومات على فهم أوجه القصور هذه، وتحديد استهلاك موارد الأجهزة (الوقت والذاكرة) لعمليات TensorFlow المتنوعة في النموذج الخاص بك، وحل اختناقات الأداء، وفي النهاية، جعل النموذج يعمل بشكل أسرع.

استخدم فريق التصنيف ميزة ملف تعريف الإطار الأمازون SageMaker المصحح (تم إهماله الآن لصالح ملف تعريف أمازون SageMaker) لتحسين وظائف التدريب هذه. يتيح لك هذا تتبع جميع الأنشطة على وحدات المعالجة المركزية ووحدات معالجة الرسومات، مثل استخدامات وحدة المعالجة المركزية ووحدة معالجة الرسومات، وتشغيل kernel على وحدات معالجة الرسومات، وتشغيل kernel على وحدات المعالجة المركزية، وعمليات المزامنة، وعمليات الذاكرة عبر وحدات معالجة الرسومات، وزمن الاستجابة بين عمليات تشغيل kernel وعمليات التشغيل المقابلة، ونقل البيانات بين وحدات المعالجة المركزية. ووحدات معالجة الرسومات.

استخدم فريق التصنيف أيضًا ملف تعريف TensorFlow سمة من سمات TensorBoard، مما ساعد أيضًا في تحديد نموذج التدريب على TensorFlow. SageMaker الآن مزيد من التكامل مع TensorBoard ويقدم أدوات التصور الخاصة بـ TensorBoard إلى SageMaker، والمتكاملة مع تدريبات ومجالات SageMaker. يتيح لك TensorBoard تنفيذ مهام تصحيح الأخطاء النموذجية باستخدام المكونات الإضافية لتصور TensorBoard.

بمساعدة هاتين الأداتين، قام فريق التصنيف بتحسين نموذج TensorFlow الخاص بهم وتمكنوا من تحديد الاختناقات وتقليل متوسط ​​وقت خطوة التدريب من 350 مللي ثانية إلى 140 مللي ثانية على وحدة المعالجة المركزية ومن 170 مللي ثانية إلى 70 مللي ثانية على وحدة معالجة الرسومات، وسرعات تصل إلى 60% و59% على التوالي.

نتائج الأعمال

تركزت جهود الترحيل حول تعزيز التوافر وقابلية التوسع والمرونة، مما أدى بشكل جماعي إلى رفع بيئة تعلم الآلة نحو مستوى جديد من التميز التشغيلي، والذي يتمثل في زيادة تكرار تدريب النموذج وتقليل حالات الفشل، وأوقات التدريب المحسنة، وقدرات تعلم الآلة المتقدمة.

تكرار التدريب النموذجي والفشل

زاد عدد وظائف التدريب النموذجي الشهرية بمقدار خمسة أضعاف، مما أدى إلى تحسينات متكررة للنموذج بشكل ملحوظ. علاوة على ذلك، أدت بيئة التعلم الآلي الجديدة إلى انخفاض معدل فشل تشغيل خطوط الأنابيب، حيث انخفض من حوالي 50% إلى 20%. انخفض وقت معالجة المهمة الفاشلة بشكل كبير، من أكثر من ساعة في المتوسط ​​إلى 5 ثوانٍ لا تذكر. وقد أدى هذا إلى زيادة كبيرة في الكفاءة التشغيلية وتقليل هدر الموارد.

وقت التدريب الأمثل

جلب الترحيل معه زيادة في الكفاءة من خلال تدريب GPU المستند إلى SageMaker. أدى هذا التحول إلى تقليل وقت تدريب النموذج إلى خمس مدته السابقة. في السابق، كانت عمليات التدريب على نماذج التعلم العميق تستهلك حوالي 60 ساعة على وحدة المعالجة المركزية؛ تم تبسيط هذا إلى ما يقرب من 12 ساعة على وحدة معالجة الرسومات. لا يوفر هذا التحسين الوقت فحسب، بل يعمل أيضًا على تسريع دورة التطوير، مما يتيح تكرارًا أسرع وتحسينات للنموذج.

قدرات تعلم الآلة المتقدمة

من الأمور الأساسية لنجاح الترحيل استخدام مجموعة ميزات SageMaker، التي تشمل ضبط المعلمات الفائقة وإمكانية شرح النموذج. علاوة على ذلك، سمح الترحيل بتتبع التجارب بشكل سلس باستخدام تجارب Amazon SageMaker، مما يتيح إجراء تجارب أكثر ثاقبة وإنتاجية.

والأهم من ذلك، أن بيئة تجربة التعلم الآلي الجديدة دعمت التطوير الناجح لنموذج جديد قيد الإنتاج الآن. يعتمد هذا النموذج على التعلم العميق وليس على الشجرة، وقد أدخل تحسينات ملحوظة في أداء النموذج عبر الإنترنت.

وفي الختام

قدم هذا المنشور نظرة عامة على خدمات AWS الاحترافية والتعاون مع Booking.com الذي أدى إلى تنفيذ إطار تعلم الآلة القابل للتطوير ونجح في تقليل وقت طرح نماذج تعلم الآلة في السوق لفريق التصنيف الخاص بهم.

علم فريق التصنيف في Booking.com أن الانتقال إلى السحابة وSageMaker أثبت فائدته، وأن تكييف ممارسات عمليات التعلم الآلي (MLOps) يسمح لمهندسي وعلماء تعلم الآلة بالتركيز على حرفتهم وزيادة سرعة التطوير. يشارك الفريق الدروس المستفادة والعمل المنجز مع مجتمع ML بأكمله في Booking.com، من خلال المحادثات والجلسات المخصصة مع ممارسي ML حيث يشاركون الكود والقدرات. نأمل أن يكون هذا المنشور بمثابة وسيلة أخرى لمشاركة المعرفة.

AWS Professional Services جاهزة لمساعدة فريقك على تطوير ML قابل للتطوير وجاهز للإنتاج في AWS. لمزيد من المعلومات، راجع الخدمات المهنية AWS أو تواصل من خلال مدير حسابك للتواصل معك.


حول المؤلف

لورنس فان دير ماس هو مهندس التعلم الآلي في AWS Professional Services. إنه يعمل بشكل وثيق مع العملاء لبناء حلول التعلم الآلي الخاصة بهم على AWS، وهو متخصص في التدريب الموزع والتجريب والذكاء الاصطناعي المسؤول، وهو متحمس لكيفية تغيير التعلم الآلي للعالم كما نعرفه.

دانيال زاجيفا هو عالم بيانات في خدمات AWS الاحترافية. وهو متخصص في تطوير حلول التعلم الآلي القابلة للتطوير على مستوى الإنتاج لعملاء AWS. تمتد خبرته عبر مجالات مختلفة، بما في ذلك معالجة اللغة الطبيعية والذكاء الاصطناعي التوليدي وعمليات التعلم الآلي.

كوستيا كوفمان هو مدير أول لتعلم الآلة في Booking.com، ويقود فريق ML لتصنيف البحث، ويشرف على نظام ML الأكثر شمولاً في Booking.com. ومن خلال خبرته في التخصيص والتصنيف، فهو يزدهر في الاستفادة من أحدث التقنيات لتعزيز تجارب العملاء.

جيني توكار هو أحد كبار مهندسي التعلم الآلي في فريق تصنيف البحث في Booking.com. وهي متخصصة في تطوير خطوط تعلم الآلة الشاملة التي تتميز بالكفاءة والموثوقية وقابلية التوسع والابتكار. تعمل خبرة جيني على تمكين فريقها من إنشاء نماذج تصنيف متطورة تخدم ملايين المستخدمين كل يوم.

ألكسندرا دوكيتش هو أحد كبار علماء البيانات في خدمات AWS الاحترافية. إنها تستمتع بدعم العملاء لبناء حلول مبتكرة للذكاء الاصطناعي/التعلم الآلي على AWS وهي متحمسة بشأن تحولات الأعمال من خلال قوة البيانات.

لوبا بروتسيفا هو مدير المشاركة في AWS Professional Services. وهي متخصصة في تقديم حلول البيانات وGenAI/ML التي تمكن عملاء AWS من تعظيم قيمة أعمالهم وتسريع سرعة الابتكار.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة