Zephyrnet-Logo

Wie Booking.com sein ML-Experimentier-Framework mit Amazon SageMaker modernisiert hat | Amazon Web Services

Datum:

Dieser Beitrag wurde gemeinsam mit Kostia Kofman und Jenny Tokar von Booking.com verfasst.

Als weltweiter Marktführer in der Online-Reisebranche Booking.com ist stets auf der Suche nach innovativen Möglichkeiten, seine Dienstleistungen zu verbessern und seinen Kunden maßgeschneiderte und nahtlose Erlebnisse zu bieten. Das Ranking-Team von Booking.com spielt eine entscheidende Rolle dabei, sicherzustellen, dass die Such- und Empfehlungsalgorithmen optimiert sind, um den Benutzern die besten Ergebnisse zu liefern.

Durch die gemeinsame Nutzung interner Ressourcen mit anderen internen Teams mussten die Wissenschaftler des Ranking-Teams für maschinelles Lernen (ML) oft lange Wartezeiten auf Ressourcen für Modelltraining und Experimente hinnehmen, was ihre Fähigkeit, schnell zu experimentieren und Innovationen zu entwickeln, auf die Probe stellte. Das Ranking-Team erkannte die Notwendigkeit einer modernisierten ML-Infrastruktur und begab sich auf die Reise, um die Leistungsfähigkeit von zu nutzen Amazon Sage Maker um ML-Modelle im großen Maßstab zu erstellen, zu trainieren und bereitzustellen.

Booking.com hat mit zusammengearbeitet Professionelle AWS-Services eine Lösung zu entwickeln, um die Markteinführungszeit für verbesserte ML-Modelle durch die folgenden Verbesserungen zu beschleunigen:

  • Reduzierte Wartezeiten für Ressourcen für Schulung und Experimente
  • Integration wesentlicher ML-Funktionen wie Hyperparameter-Tuning
  • Ein verkürzter Entwicklungszyklus für ML-Modelle

Verkürzte Wartezeiten würden bedeuten, dass das Team schnell iterieren und mit Modellen experimentieren könnte und so viel schneller Erkenntnisse gewinnen könnte. Durch die Verwendung der bei Bedarf verfügbaren SageMaker-Instanzen konnte die Wartezeit um das Zehnfache verkürzt werden. Wesentliche ML-Funktionen wie Hyperparameter-Tuning und Modellerklärbarkeit fehlten vor Ort. Die Modernisierungsreise des Teams führte diese Funktionen durch Automatische Modelloptimierung von Amazon SageMaker und Amazon SageMaker klären. Schließlich bestand das Ziel des Teams darin, zu jeder am Code vorgenommenen Änderung sofortiges Feedback zu erhalten, die Feedbackschleife von Minuten auf einen Augenblick zu verkürzen und so den Entwicklungszyklus für ML-Modelle zu verkürzen.

In diesem Beitrag befassen wir uns mit der Reise des Ranking-Teams von Booking.com, als es die Funktionen von SageMaker nutzte, um sein ML-Experimentier-Framework zu modernisieren. Auf diese Weise haben sie nicht nur ihre bestehenden Herausforderungen gemeistert, sondern auch ihr Sucherlebnis verbessert, was letztendlich Millionen von Reisenden weltweit zugute kam.

Ansatz zur Modernisierung

Das Ranking-Team besteht aus mehreren ML-Wissenschaftlern, die jeweils ihr eigenes Modell offline entwickeln und testen müssen. Wenn ein Modell gemäß der Offline-Bewertung als erfolgreich erachtet wird, kann es in den Produktions-A/B-Test überführt werden. Wenn es eine Online-Verbesserung zeigt, kann es für alle Benutzer bereitgestellt werden.

Das Ziel dieses Projekts bestand darin, eine benutzerfreundliche Umgebung für ML-Wissenschaftler zu schaffen, die leicht anpassbar ist Amazon SageMaker-Modellerstellungspipelines um ihre Hypothesen zu testen, ohne lange und komplizierte Module programmieren zu müssen.

Eine der zahlreichen Herausforderungen bestand darin, die bestehende On-Premise-Pipeline-Lösung für den Einsatz auf AWS anzupassen. Die Lösung umfasste zwei Schlüsselkomponenten:

  • Bestehenden Code ändern und erweitern – Der erste Teil unserer Lösung umfasste die Änderung und Erweiterung unseres vorhandenen Codes, um ihn mit der AWS-Infrastruktur kompatibel zu machen. Dies war entscheidend, um einen reibungslosen Übergang von der lokalen zur Cloud-basierten Verarbeitung sicherzustellen.
  • Entwicklung von Client-Paketen – Es wurde ein Client-Paket entwickelt, das als Wrapper für die SageMaker-APIs und den zuvor vorhandenen Code fungiert. Dieses Paket kombiniert beides und ermöglicht ML-Wissenschaftlern die einfache Konfiguration und Bereitstellung von ML-Pipelines ohne Programmieraufwand.

Konfiguration der SageMaker-Pipeline

Anpassbarkeit ist der Schlüssel zur Modellbau-Pipeline und wurde durch erreicht config.ini, eine umfangreiche Konfigurationsdatei. Diese Datei dient als Kontrollzentrum für alle Eingaben und Verhaltensweisen der Pipeline.

Verfügbare Konfigurationen im Inneren config.ini -System umfasst:

  • Details zur Pipeline – Der Praktiker kann den Namen der Pipeline definieren, angeben, welche Schritte ausgeführt werden sollen, und bestimmen, wo Ausgaben gespeichert werden sollen Amazon Simple Storage-Service (Amazon S3) und wählen Sie aus, welche Datensätze verwendet werden sollen
  • AWS-Kontodetails – Sie können entscheiden, in welcher Region die Pipeline ausgeführt werden soll und welche Rolle verwendet werden soll
  • Schrittspezifische Konfiguration – Für jeden Schritt in der Pipeline können Sie Details wie die Anzahl und Art der zu verwendenden Instanzen sowie relevante Parameter angeben

Der folgende Code zeigt eine Beispielkonfigurationsdatei:

[BUILD]
pipeline_name = ranking-pipeline
steps = DATA_TRANFORM, TRAIN, PREDICT, EVALUATE, EXPLAIN, REGISTER, UPLOAD
train_data_s3_path = s3://...
...
[AWS_ACCOUNT]
region = eu-central-1
...
[DATA_TRANSFORM_PARAMS]
input_data_s3_path = s3://...
compression_type = GZIP
....
[TRAIN_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
epochs = 1
enable_sagemaker_debugger = True
...
[PREDICT_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
...
[EVALUATE_PARAMS]
instance_type = ml.m5.8xlarge
batch_size = 2048
...
[EXPLAIN_PARAMS]
check_job_instance_type = ml.c5.xlarge
generate_baseline_with_clarify = False
....

config.ini ist eine von Git verwaltete versionierte Datei, die die minimale Konfiguration darstellt, die für eine erfolgreiche Ausführung der Trainingspipeline erforderlich ist. Während der Entwicklung können lokale Konfigurationsdateien verwendet werden, die keiner Versionskontrolle unterliegen. Diese lokalen Konfigurationsdateien müssen nur Einstellungen enthalten, die für einen bestimmten Lauf relevant sind, was Flexibilität ohne Komplexität ermöglicht. Der Pipeline-Erstellungsclient ist für die Verarbeitung mehrerer Konfigurationsdateien konzipiert, wobei die neueste Datei Vorrang vor den vorherigen Einstellungen hat.

SageMaker-Pipelineschritte

Die Pipeline ist in die folgenden Schritte unterteilt:

  • Datenaufbereitung trainieren und testen – Terabytes an Rohdaten werden in einen S3-Bucket kopiert und mit verarbeitet AWS-Kleber Jobs für die Spark-Verarbeitung, was zu Daten führt, die zur Kompatibilität strukturiert und formatiert sind.
  • Training – Der Trainingsschritt verwendet den TensorFlow-Schätzer für SageMaker-Trainingsjobs. Das Training erfolgt verteilt mit Horovod und das resultierende Modellartefakt wird in Amazon S3 gespeichert. Zur Optimierung der Hyperparameter kann ein Job zur Hyperparameteroptimierung (HPO) initiiert werden, der das beste Modell basierend auf der Zielmetrik auswählt.
  • Vorhersagen – In diesem Schritt verwendet ein SageMaker-Verarbeitungsauftrag das gespeicherte Modellartefakt, um Vorhersagen zu treffen. Dieser Prozess läuft parallel auf verfügbaren Maschinen und die Vorhersageergebnisse werden in Amazon S3 gespeichert.
  • Bewerten – Ein PySpark-Verarbeitungsauftrag wertet das Modell mithilfe eines benutzerdefinierten Spark-Skripts aus. Der Auswertungsbericht wird dann in Amazon S3 gespeichert.
  • Anforderungen – Nach der Auswertung wird über die Qualität des Modells entschieden. Diese Entscheidung basiert auf einer Bedingungsmetrik, die in der Konfigurationsdatei definiert ist. Bei positiver Bewertung gilt das Modell als genehmigt; andernfalls wird es als abgelehnt registriert. In beiden Fällen werden die Bewertung und der Erklärbarkeitsbericht, sofern erstellt, im Modellregister erfasst.
  • Paketmodell für Inferenz – Wenn die Bewertungsergebnisse positiv sind, wird das Modell mithilfe eines Verarbeitungsjobs gepackt, in Amazon S3 gespeichert und zum Hochladen auf das interne ML-Portal bereitgestellt.
  • Erklären – SageMaker Clarify generiert einen Erklärbarkeitsbericht.

Es werden zwei unterschiedliche Repositorys verwendet. Das erste Repository enthält den Definitions- und Build-Code für die ML-Pipeline, und das zweite Repository enthält den Code, der in jedem Schritt ausgeführt wird, z. B. Verarbeitung, Training, Vorhersage und Bewertung. Dieser Dual-Repository-Ansatz ermöglicht eine größere Modularität und ermöglicht es Wissenschafts- und Ingenieurteams, unabhängig voneinander ML-Code und ML-Pipeline-Komponenten zu iterieren.

Das folgende Diagramm veranschaulicht den Lösungsworkflow.

Automatische Modellabstimmung

Das Training von ML-Modellen erfordert einen iterativen Ansatz mit mehreren Trainingsexperimenten, um ein robustes und leistungsfähiges Endmodell für den Geschäftsgebrauch zu erstellen. Die ML-Wissenschaftler müssen den geeigneten Modelltyp auswählen, die richtigen Eingabedatensätze erstellen und den Satz von Hyperparametern anpassen, die den Modelllernprozess während des Trainings steuern.

Die Auswahl geeigneter Werte für Hyperparameter für den Modelltrainingsprozess kann die endgültige Leistung des Modells erheblich beeinflussen. Es gibt jedoch keine eindeutige oder definierte Möglichkeit, zu bestimmen, welche Werte für einen bestimmten Anwendungsfall geeignet sind. Meistens müssen ML-Wissenschaftler mehrere Trainingsjobs mit leicht unterschiedlichen Sätzen von Hyperparametern ausführen, die Trainingsmetriken des Modells beobachten und dann versuchen, vielversprechendere Werte für die nächste Iteration auszuwählen. Dieser Prozess zur Optimierung der Modellleistung wird auch als Hyperparameteroptimierung (HPO) bezeichnet und kann manchmal Hunderte von Experimenten erfordern.

Das Ranking-Team führte HPO früher manuell in seiner lokalen Umgebung durch, da es nur eine sehr begrenzte Anzahl von Schulungsjobs parallel starten konnte. Daher mussten sie HPO nacheinander ausführen, verschiedene Kombinationen von Hyperparameterwerten manuell testen und auswählen und den Fortschritt regelmäßig überwachen. Dies verlängerte den Modellentwicklungs- und Abstimmungsprozess und begrenzte die Gesamtzahl der HPO-Experimente, die in einer realisierbaren Zeitspanne durchgeführt werden konnten.

Durch den Wechsel zu AWS konnte das Ranking-Team die AMT-Funktion (Automatic Model Tuning) von SageMaker nutzen. Mit AMT können Ranking-ML-Wissenschaftler automatisch Hunderte von Trainingsjobs innerhalb der interessierenden Hyperparameterbereiche starten, um die leistungsstärkste Version des endgültigen Modells entsprechend der gewählten Metrik zu finden. Das Ranking-Team kann nun zwischen vier verschiedenen automatischen Optimierungsstrategien für die Auswahl seiner Hyperparameter wählen:

  • Rastersuche – AMT erwartet, dass es sich bei allen Hyperparametern um kategoriale Werte handelt, und startet Trainingsjobs für jede einzelne kategoriale Kombination, um den gesamten Hyperparameterraum zu erkunden.
  • Zufällige Suche – AMT wählt zufällig Kombinationen von Hyperparameterwerten innerhalb der angegebenen Bereiche aus. Da keine Abhängigkeit zwischen verschiedenen Trainingsjobs und der Auswahl von Parameterwerten besteht, können mit dieser Methode mehrere parallele Trainingsjobs gestartet werden, wodurch der Prozess der optimalen Parameterauswahl beschleunigt wird.
  • Bayesianische Optimierung – AMT verwendet die Bayes'sche Optimierungsimplementierung, um den besten Satz von Hyperparameterwerten zu erraten, und behandelt es als Regressionsproblem. Es berücksichtigt zuvor getestete Hyperparameterkombinationen und deren Auswirkungen auf die Modelltrainingsjobs mit der neuen Parameterauswahl und optimiert so eine intelligentere Parameterauswahl mit weniger Experimenten, startet Trainingsjobs aber auch nur nacheinander, um immer aus früheren Trainings lernen zu können.
  • Hyperband – AMT verwendet Zwischen- und Endergebnisse der von ihm ausgeführten Trainingsjobs, um Ressourcen dynamisch auf Trainingsjobs mit Hyperparameterkonfigurationen umzuverteilen, die vielversprechendere Ergebnisse zeigen, während diejenigen mit schlechterer Leistung automatisch gestoppt werden.

AMT auf SageMaker ermöglichte es dem Ranking-Team, den Zeitaufwand für den Hyperparameter-Tuning-Prozess für seine Modellentwicklung zu reduzieren, indem es ihm zum ersten Mal ermöglichte, mehrere parallele Experimente durchzuführen, automatische Tuning-Strategien zu verwenden und zweistellige Trainingsjobläufe innerhalb weniger Tage durchzuführen. etwas, das vor Ort nicht machbar war.

Modellerklärbarkeit mit SageMaker Clarify

Durch die Modellerklärbarkeit können ML-Praktiker die Natur und das Verhalten ihrer ML-Modelle verstehen, indem sie wertvolle Erkenntnisse für Feature-Engineering und Auswahlentscheidungen liefern, was wiederum die Qualität der Modellvorhersagen verbessert. Das Ranking-Team wollte seine Erkenntnisse zur Erklärbarkeit auf zwei Arten bewerten: verstehen, wie sich Feature-Eingaben auf die Modellausgaben im gesamten Datensatz auswirken (globale Interpretierbarkeit), und außerdem in der Lage sein, den Einfluss von Eingabe-Features für eine bestimmte Modellvorhersage an einem Datenpunkt von Interesse zu ermitteln ( lokale Interpretierbarkeit). Mit diesen Daten können Ranking-ML-Wissenschaftler fundierte Entscheidungen darüber treffen, wie sie die Leistung ihres Modells weiter verbessern und die anspruchsvollen Vorhersageergebnisse berücksichtigen können, die das Modell gelegentlich liefern würde.

Mit SageMaker Clarify können Sie Modelle zur Erklärbarkeit von Modellen erstellen Shapley Additive Erklärungen (SHAP) beim Trainieren Ihrer Modelle auf SageMaker und unterstützt sowohl die globale als auch die lokale Modellinterpretierbarkeit. Zusätzlich zu Modellerklärbarkeitsberichten unterstützt SageMaker Clarify die Durchführung von Analysen für Bias-Metriken vor dem Training, Bias-Metriken nach dem Training und partielle Abhängigkeitsdiagramme. Der Job wird als SageMaker-Verarbeitungsjob im AWS-Konto ausgeführt und lässt sich direkt in die SageMaker-Pipelines integrieren.

Der globale Interpretierbarkeitsbericht wird automatisch in der Jobausgabe generiert und im angezeigt Amazon SageMaker-Studio Umgebung im Rahmen des Trainingsexperimentlaufs. Wenn dieses Modell dann in der SageMaker-Modellregistrierung registriert wird, wird der Bericht zusätzlich mit dem Modellartefakt verknüpft. Mithilfe dieser beiden Optionen konnte das Ranking-Team problemlos verschiedene Modellversionen und deren Verhaltensänderungen nachverfolgen.

Um den Einfluss von Eingabemerkmalen auf eine einzelne Vorhersage (lokale Interpretierbarkeitswerte) zu untersuchen, hat das Ranking-Team den Parameter aktiviert save_local_shap_values in den SageMaker Clarify-Jobs und konnte diese aus dem S3-Bucket für weitere Analysen in den Jupyter-Notebooks in SageMaker Studio laden.

Die vorhergehenden Bilder zeigen ein Beispiel dafür, wie eine Modellerklärbarkeit für ein beliebiges ML-Modell aussehen würde.

Trainingsoptimierung

Der Aufstieg des Deep Learning (DL) hat dazu geführt, dass ML zunehmend auf Rechenleistung und große Datenmengen angewiesen ist. ML-Praktiker stehen beim Training dieser komplexen Modelle häufig vor der Hürde, Ressourcen effizient zu nutzen. Wenn Sie Schulungen auf großen Rechenclustern durchführen, treten bei der Optimierung der Ressourcennutzung verschiedene Herausforderungen auf, darunter Probleme wie E/A-Engpässe, Verzögerungen beim Kernel-Start, Speicherbeschränkungen und nicht ausgelastete Ressourcen. Wenn die Konfiguration des Trainingsjobs nicht auf Effizienz abgestimmt ist, können diese Hindernisse zu einer suboptimalen Hardwarenutzung, längeren Trainingsdauern oder sogar unvollständigen Trainingsläufen führen. Diese Faktoren erhöhen die Projektkosten und verzögern den Zeitplan.

Die Profilierung der CPU- und GPU-Nutzung hilft, diese Ineffizienzen zu verstehen, den Hardware-Ressourcenverbrauch (Zeit und Speicher) der verschiedenen TensorFlow-Vorgänge in Ihrem Modell zu bestimmen, Leistungsengpässe zu beheben und letztendlich die Ausführung des Modells zu beschleunigen.

Das Ranking-Team nutzte die Framework-Profiling-Funktion von Amazon SageMaker-Debugger (jetzt veraltet zugunsten von Amazon SageMaker Profiler), um diese Ausbildungsberufe zu optimieren. Dadurch können Sie alle Aktivitäten auf CPUs und GPUs verfolgen, wie z. B. CPU- und GPU-Auslastungen, Kernel-Ausführungen auf GPUs, Kernel-Starts auf CPUs, Synchronisierungsvorgänge, Speichervorgänge zwischen GPUs, Latenzen zwischen Kernel-Starts und entsprechenden Läufen sowie die Datenübertragung zwischen CPUs und GPUs.

Das Ranking-Team nutzte auch das TensorFlow-Profiler Merkmal von TensorBoard, was weiter zur Profilierung des TensorFlow-Modelltrainings beitrug. SageMaker ist jetzt weiter integriert mit TensorBoard und bringt die Visualisierungstools von TensorBoard zu SageMaker, integriert mit SageMaker-Schulungen und -Domänen. Mit TensorBoard können Sie mithilfe der TensorBoard-Visualisierungs-Plugins Modell-Debugging-Aufgaben ausführen.

Mit Hilfe dieser beiden Tools optimierte das Ranking-Team sein TensorFlow-Modell und konnte Engpässe identifizieren und die durchschnittliche Trainingsschrittzeit von 350 Millisekunden auf 140 Millisekunden auf der CPU und von 170 Millisekunden auf 70 Millisekunden auf der GPU reduzieren, was einer Geschwindigkeitssteigerung von 60 % entspricht. bzw. 59 %.

Geschäftsergebnisse

Die Migrationsbemühungen konzentrierten sich auf die Verbesserung der Verfügbarkeit, Skalierbarkeit und Elastizität, die insgesamt die ML-Umgebung auf ein neues Niveau betrieblicher Exzellenz brachten, was sich in der erhöhten Modellschulungshäufigkeit und geringeren Fehlern, optimierten Trainingszeiten und erweiterten ML-Funktionen widerspiegelte.

Häufigkeit und Fehler des Modelltrainings

Die Zahl der monatlichen Modellschulungsjobs verfünffachte sich, was zu deutlich häufigeren Modelloptimierungen führte. Darüber hinaus führte die neue ML-Umgebung zu einer Reduzierung der Ausfallrate von Pipeline-Läufen von etwa 50 % auf 20 %. Die Bearbeitungszeit fehlgeschlagener Jobs verringerte sich drastisch von durchschnittlich über einer Stunde auf vernachlässigbare 5 Sekunden. Dies hat die betriebliche Effizienz deutlich gesteigert und die Ressourcenverschwendung verringert.

Optimierte Trainingszeit

Die Migration brachte Effizienzsteigerungen durch SageMaker-basiertes GPU-Training mit sich. Durch diese Verschiebung verkürzte sich die Modelltrainingszeit auf ein Fünftel der vorherigen Dauer. Bisher beanspruchten die Trainingsprozesse für Deep-Learning-Modelle rund 60 Stunden CPU; Dies wurde auf der GPU auf etwa 12 Stunden optimiert. Diese Verbesserung spart nicht nur Zeit, sondern beschleunigt auch den Entwicklungszyklus und ermöglicht schnellere Iterationen und Modellverbesserungen.

Erweiterte ML-Funktionen

Ausschlaggebend für den Erfolg der Migration ist die Verwendung des SageMaker-Funktionsumfangs, der die Optimierung von Hyperparametern und die Erklärbarkeit des Modells umfasst. Darüber hinaus ermöglichte die Migration eine nahtlose Experimentverfolgung Amazon SageMaker-Experimente, was ein aufschlussreicheres und produktiveres Experimentieren ermöglicht.

Am wichtigsten ist, dass die neue ML-Experimentierumgebung die erfolgreiche Entwicklung eines neuen Modells unterstützte, das jetzt in Produktion ist. Bei diesem Modell handelt es sich nicht um ein baumbasiertes Deep-Learning-Modell, sondern es wurden spürbare Verbesserungen bei der Leistung des Online-Modells erzielt.

Zusammenfassung

Dieser Beitrag lieferte einen Überblick über die Zusammenarbeit zwischen AWS Professional Services und Booking.com, die zur Implementierung eines skalierbaren ML-Frameworks führte und die Markteinführungszeit von ML-Modellen ihres Ranking-Teams erfolgreich verkürzte.

Das Ranking-Team von Booking.com erfuhr, dass sich die Migration in die Cloud und SageMaker als vorteilhaft erwiesen hat und dass die Anpassung von Machine Learning Operations (MLOps)-Praktiken es ihren ML-Ingenieuren und -Wissenschaftlern ermöglicht, sich auf ihr Handwerk zu konzentrieren und die Entwicklungsgeschwindigkeit zu erhöhen. Das Team teilt die Erkenntnisse und die geleistete Arbeit mit der gesamten ML-Community auf Booking.com durch Vorträge und spezielle Sitzungen mit ML-Praktikern, in denen sie den Code und die Fähigkeiten teilen. Wir hoffen, dass dieser Beitrag eine weitere Möglichkeit sein kann, das Wissen weiterzugeben.

AWS Professional Services ist bereit, Ihr Team bei der Entwicklung skalierbarer und produktionsbereiter ML in AWS zu unterstützen. Weitere Informationen finden Sie unter Professionelle AWS-Services Oder wenden Sie sich an Ihren Account Manager, um mit uns in Kontakt zu treten.


Über die Autoren

Laurens van der Maas ist Machine Learning Engineer bei AWS Professional Services. Er arbeitet eng mit Kunden zusammen, die ihre Lösungen für maschinelles Lernen auf AWS entwickeln, ist auf verteiltes Training, Experimente und verantwortungsvolle KI spezialisiert und begeistert sich dafür, wie maschinelles Lernen die Welt, wie wir sie kennen, verändert.

Daniel Zagyva ist Datenwissenschaftler bei AWS Professional Services. Er ist auf die Entwicklung skalierbarer, produktionstauglicher Lösungen für maschinelles Lernen für AWS-Kunden spezialisiert. Seine Erfahrung erstreckt sich über verschiedene Bereiche, darunter die Verarbeitung natürlicher Sprache, generative KI und maschinelle Lernoperationen.

Kostia Kofman ist Senior Machine Learning Manager bei Booking.com, leitet das Search Ranking ML-Team und überwacht das umfangreichste ML-System von Booking.com. Mit Fachkenntnissen in den Bereichen Personalisierung und Ranking setzt er modernste Technologie ein, um das Kundenerlebnis zu verbessern.

Jenny Tokar ist Senior Machine Learning Engineer im Search Ranking-Team von Booking.com. Sie ist auf die Entwicklung von End-to-End-ML-Pipelines spezialisiert, die sich durch Effizienz, Zuverlässigkeit, Skalierbarkeit und Innovation auszeichnen. Jennys Fachwissen ermöglicht es ihrem Team, hochmoderne Ranking-Modelle zu entwickeln, die täglich Millionen von Benutzern dienen.

Aleksandra Dokic ist Senior Data Scientist bei AWS Professional Services. Es macht ihr Spaß, Kunden beim Aufbau innovativer KI/ML-Lösungen auf AWS zu unterstützen, und sie ist begeistert von Geschäftstransformationen durch die Kraft von Daten.

Luba Protsiva ist Engagement Manager bei AWS Professional Services. Sie ist auf die Bereitstellung von Daten- und GenAI/ML-Lösungen spezialisiert, die es AWS-Kunden ermöglichen, ihren Geschäftswert zu maximieren und die Innovationsgeschwindigkeit zu beschleunigen.

spot_img

Neueste Intelligenz

spot_img