Logo Zephyrnet

Cách Booking.com hiện đại hóa khung thử nghiệm ML của mình với Amazon SageMaker | Dịch vụ web của Amazon

Ngày:

Bài đăng này được đồng viết với Kostia Kofman và Jenny Tokar từ Booking.com.

Là công ty dẫn đầu toàn cầu trong ngành du lịch trực tuyến, Booking.com luôn tìm kiếm những cách sáng tạo để nâng cao dịch vụ của mình và cung cấp cho khách hàng những trải nghiệm phù hợp và liền mạch. Nhóm Xếp hạng tại Booking.com đóng vai trò then chốt trong việc đảm bảo rằng các thuật toán tìm kiếm và đề xuất được tối ưu hóa để mang lại kết quả tốt nhất cho người dùng của họ.

Chia sẻ tài nguyên nội bộ với các nhóm nội bộ khác, các nhà khoa học về máy học (ML) của Nhóm xếp hạng thường phải chờ đợi lâu để truy cập tài nguyên cho đào tạo và thử nghiệm mô hình – thách thức khả năng thử nghiệm và đổi mới nhanh chóng của họ. Nhận thấy nhu cầu về cơ sở hạ tầng ML được hiện đại hóa, nhóm Xếp hạng bắt đầu hành trình sử dụng sức mạnh của Amazon SageMaker để xây dựng, đào tạo và triển khai các mô hình ML trên quy mô lớn.

Booking.com hợp tác với Dịch vụ chuyên nghiệp của AWS xây dựng giải pháp đẩy nhanh thời gian đưa ra thị trường các mô hình ML cải tiến thông qua các cải tiến sau:

  • Giảm thời gian chờ đợi nguồn lực cho đào tạo và thử nghiệm
  • Tích hợp các khả năng ML thiết yếu như điều chỉnh siêu tham số
  • Chu kỳ phát triển giảm cho các mô hình ML

Giảm thời gian chờ đợi có nghĩa là nhóm có thể nhanh chóng lặp lại và thử nghiệm các mô hình, thu được thông tin chi tiết với tốc độ nhanh hơn nhiều. Việc sử dụng các phiên bản có sẵn theo yêu cầu của SageMaker cho phép giảm thời gian chờ gấp 10 lần. Các khả năng ML thiết yếu như điều chỉnh siêu tham số và khả năng giải thích mô hình còn thiếu tại cơ sở. Hành trình hiện đại hóa của nhóm đã giới thiệu những tính năng này thông qua Điều chỉnh mô hình tự động của Amazon SageMakerLàm rõ Amazon SageMaker. Cuối cùng, mong muốn của nhóm là nhận được phản hồi ngay lập tức về mỗi thay đổi được thực hiện trong mã, giảm vòng phản hồi từ vài phút xuống ngay lập tức và do đó giảm chu kỳ phát triển cho các mô hình ML.

Trong bài đăng này, chúng ta đi sâu vào hành trình do nhóm Xếp hạng tại Booking.com thực hiện khi họ khai thác các khả năng của SageMaker để hiện đại hóa khung thử nghiệm ML của mình. Bằng cách đó, họ không chỉ vượt qua những thách thức hiện tại mà còn cải thiện trải nghiệm tìm kiếm, cuối cùng mang lại lợi ích cho hàng triệu khách du lịch trên toàn thế giới.

Tiếp cận hiện đại hóa

Nhóm Xếp hạng bao gồm một số nhà khoa học ML, mỗi người cần phát triển và thử nghiệm mô hình ngoại tuyến của riêng mình. Khi một mô hình được coi là thành công theo đánh giá ngoại tuyến, mô hình đó có thể được chuyển sang thử nghiệm A/B sản xuất. Nếu nó cho thấy sự cải thiện trực tuyến, nó có thể được triển khai cho tất cả người dùng.

Mục tiêu của dự án này là tạo ra một môi trường thân thiện với người dùng để các nhà khoa học ML dễ dàng chạy các tùy chỉnh Đường ống xây dựng mô hình Amazon SageMaker để kiểm tra các giả thuyết của họ mà không cần phải viết mã các mô-đun dài và phức tạp.

Một trong những thách thức phải đối mặt là điều chỉnh giải pháp quy trình tại chỗ hiện có để sử dụng trên AWS. Giải pháp bao gồm hai thành phần chính:

  • Sửa đổi và mở rộng mã hiện có – Phần đầu tiên trong giải pháp của chúng tôi liên quan đến việc sửa đổi và mở rộng mã hiện có để làm cho mã đó tương thích với cơ sở hạ tầng AWS. Điều này rất quan trọng trong việc đảm bảo quá trình chuyển đổi suôn sẻ từ xử lý tại chỗ sang xử lý dựa trên đám mây.
  • Phát triển gói khách hàng – Gói ứng dụng khách được phát triển hoạt động như một trình bao bọc xung quanh API SageMaker và mã hiện có trước đó. Gói này kết hợp cả hai, cho phép các nhà khoa học ML dễ dàng định cấu hình và triển khai các quy trình ML mà không cần mã hóa.

Cấu hình đường dẫn SageMaker

Khả năng tùy chỉnh là chìa khóa cho quy trình xây dựng mô hình và nó đạt được thông qua config.ini, một tệp cấu hình mở rộng. Tệp này đóng vai trò là trung tâm điều khiển cho tất cả đầu vào và hành vi của đường ống.

Cấu hình có sẵn bên trong config.ini bao gồm:

  • Chi tiết đường ống – Người thực hành có thể xác định tên của quy trình, chỉ định bước nào sẽ chạy, xác định nơi lưu trữ đầu ra Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) và chọn bộ dữ liệu nào sẽ sử dụng
  • Chi tiết tài khoản AWS – Bạn có thể quyết định đường ống sẽ chạy trong Khu vực nào và nên sử dụng vai trò nào
  • Cấu hình theo từng bước cụ thể – Đối với mỗi bước trong quy trình, bạn có thể chỉ định các chi tiết như số lượng và loại phiên bản sẽ sử dụng, cùng với các tham số liên quan

Đoạn mã sau hiển thị một tệp cấu hình ví dụ:

[BUILD]
pipeline_name = ranking-pipeline
steps = DATA_TRANFORM, TRAIN, PREDICT, EVALUATE, EXPLAIN, REGISTER, UPLOAD
train_data_s3_path = s3://...
...
[AWS_ACCOUNT]
region = eu-central-1
...
[DATA_TRANSFORM_PARAMS]
input_data_s3_path = s3://...
compression_type = GZIP
....
[TRAIN_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
epochs = 1
enable_sagemaker_debugger = True
...
[PREDICT_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
...
[EVALUATE_PARAMS]
instance_type = ml.m5.8xlarge
batch_size = 2048
...
[EXPLAIN_PARAMS]
check_job_instance_type = ml.c5.xlarge
generate_baseline_with_clarify = False
....

config.ini là một tệp được kiểm soát theo phiên bản do Git quản lý, thể hiện cấu hình tối thiểu cần thiết để chạy quy trình đào tạo thành công. Trong quá trình phát triển, có thể sử dụng các tệp cấu hình cục bộ không được kiểm soát phiên bản. Các tệp cấu hình cục bộ này chỉ cần chứa các cài đặt liên quan đến một lần chạy cụ thể, mang lại sự linh hoạt mà không phức tạp. Ứng dụng khách tạo đường dẫn được thiết kế để xử lý nhiều tệp cấu hình, trong đó tệp mới nhất được ưu tiên hơn các cài đặt trước đó.

Các bước quy trình của SageMaker

Đường ống được chia thành các bước sau:

  • Chuẩn bị dữ liệu đào tạo và kiểm tra – Hàng terabyte dữ liệu thô được sao chép vào bộ chứa S3, được xử lý bằng cách sử dụng Keo AWS công việc xử lý Spark, dẫn đến dữ liệu được cấu trúc và định dạng để tương thích.
  • Train – Bước đào tạo sử dụng công cụ ước tính TensorFlow cho các công việc đào tạo của SageMaker. Quá trình đào tạo diễn ra theo cách phân tán bằng cách sử dụng Horovod và tạo phẩm mô hình thu được được lưu trữ trong Amazon S3. Để điều chỉnh siêu tham số, công việc tối ưu hóa siêu tham số (HPO) có thể được bắt đầu, chọn mô hình tốt nhất dựa trên số liệu mục tiêu.
  • Dự đoán – Ở bước này, công việc Xử lý SageMaker sử dụng tạo phẩm mô hình được lưu trữ để đưa ra dự đoán. Quá trình này chạy song song trên các máy có sẵn và kết quả dự đoán được lưu trữ trên Amazon S3.
  • Đánh giá – Công việc xử lý PySpark đánh giá mô hình bằng cách sử dụng tập lệnh Spark tùy chỉnh. Báo cáo đánh giá sau đó được lưu trữ trong Amazon S3.
  • Điều kiện – Sau khi đánh giá sẽ đưa ra quyết định liên quan đến chất lượng của mô hình. Quyết định này dựa trên số liệu điều kiện được xác định trong tệp cấu hình. Nếu đánh giá là tích cực thì mô hình được đăng ký và đã được phê duyệt; nếu không, nó sẽ được đăng ký là bị từ chối. Trong cả hai trường hợp, báo cáo đánh giá và giải thích, nếu được tạo, sẽ được ghi vào sổ đăng ký mô hình.
  • Mô hình gói cho suy luận – Sử dụng tác vụ xử lý, nếu kết quả đánh giá là dương tính, mô hình sẽ được đóng gói, lưu trữ trong Amazon S3 và sẵn sàng tải lên cổng ML nội bộ.
  • Giải thích – SageMaker Clarify tạo báo cáo có thể giải thích.

Hai kho lưu trữ riêng biệt được sử dụng. Kho lưu trữ đầu tiên chứa định nghĩa và mã xây dựng cho quy trình ML và kho lưu trữ thứ hai chứa mã chạy bên trong mỗi bước, chẳng hạn như xử lý, đào tạo, dự đoán và đánh giá. Cách tiếp cận kho lưu trữ kép này cho phép mô-đun hóa lớn hơn và cho phép các nhóm khoa học và kỹ thuật lặp lại độc lập trên mã ML và các thành phần đường dẫn ML.

Sơ đồ sau minh họa quy trình giải pháp.

Điều chỉnh mô hình tự động

Các mô hình ML đào tạo yêu cầu cách tiếp cận lặp lại của nhiều thử nghiệm đào tạo để xây dựng mô hình cuối cùng mạnh mẽ và hiệu quả để sử dụng cho doanh nghiệp. Các nhà khoa học ML phải chọn loại mô hình phù hợp, xây dựng bộ dữ liệu đầu vào chính xác và điều chỉnh bộ siêu tham số kiểm soát quá trình học mô hình trong quá trình đào tạo.

Việc lựa chọn các giá trị thích hợp cho siêu tham số cho quá trình huấn luyện mô hình có thể ảnh hưởng đáng kể đến hiệu suất cuối cùng của mô hình. Tuy nhiên, không có cách duy nhất hoặc được xác định để xác định giá trị nào phù hợp cho trường hợp sử dụng cụ thể. Trong hầu hết các trường hợp, các nhà khoa học ML sẽ cần thực hiện nhiều công việc đào tạo với các bộ siêu tham số hơi khác nhau, quan sát các chỉ số đào tạo mô hình và sau đó cố gắng chọn các giá trị hứa hẹn hơn cho lần lặp tiếp theo. Quá trình điều chỉnh hiệu suất mô hình này còn được gọi là tối ưu hóa siêu tham số (HPO) và đôi khi có thể yêu cầu hàng trăm thử nghiệm.

Nhóm Xếp hạng từng thực hiện HPO theo cách thủ công trong môi trường tại chỗ của họ vì họ chỉ có thể triển khai song song một số lượng công việc đào tạo rất hạn chế. Do đó, họ phải chạy HPO một cách tuần tự, kiểm tra và chọn các tổ hợp giá trị siêu tham số khác nhau theo cách thủ công và thường xuyên theo dõi tiến trình. Điều này kéo dài quá trình điều chỉnh và phát triển mô hình, đồng thời hạn chế tổng số thử nghiệm HPO có thể chạy trong một khoảng thời gian khả thi.

Với việc chuyển sang AWS, nhóm Xếp hạng đã có thể sử dụng tính năng điều chỉnh mô hình tự động (AMT) của SageMaker. AMT cho phép các nhà khoa học Xếp hạng ML tự động khởi động hàng trăm công việc đào tạo trong phạm vi siêu tham số được quan tâm để tìm ra phiên bản hoạt động tốt nhất của mô hình cuối cùng theo số liệu đã chọn. Nhóm Xếp hạng hiện có thể chọn giữa bốn chiến lược điều chỉnh tự động khác nhau để lựa chọn siêu tham số của họ:

  • Tìm kiếm lưới – AMT sẽ yêu cầu tất cả các siêu tham số phải là các giá trị được phân loại và nó sẽ khởi động các công việc đào tạo cho từng tổ hợp phân loại riêng biệt, khám phá toàn bộ không gian siêu tham số.
  • Tìm kiếm ngẫu nhiên – AMT sẽ chọn ngẫu nhiên các kết hợp giá trị siêu tham số trong phạm vi được cung cấp. Do không có sự phụ thuộc giữa các công việc đào tạo khác nhau và việc lựa chọn giá trị tham số, nên nhiều công việc đào tạo song song có thể được khởi chạy bằng phương pháp này, đẩy nhanh quá trình lựa chọn tham số tối ưu.
  • Tối ưu hóa Bayes – AMT sử dụng cách triển khai tối ưu hóa Bayesian để đoán tập giá trị siêu tham số tốt nhất, coi đó là một vấn đề hồi quy. Nó sẽ xem xét các kết hợp siêu tham số đã được thử nghiệm trước đó và tác động của nó đối với các công việc đào tạo mô hình bằng lựa chọn tham số mới, tối ưu hóa để lựa chọn tham số thông minh hơn với ít thử nghiệm hơn, nhưng nó cũng sẽ chỉ khởi chạy các công việc đào tạo một cách tuần tự để luôn có thể học hỏi từ các khóa đào tạo trước đó.
  • Siêu băng thông – AMT sẽ sử dụng kết quả trung gian và cuối cùng của các công việc đào tạo mà nó đang chạy để phân bổ lại nguồn lực một cách linh hoạt cho các công việc đào tạo có cấu hình siêu tham số cho thấy kết quả hứa hẹn hơn đồng thời tự động ngăn chặn những kết quả hoạt động kém.

AMT trên SageMaker đã giúp Nhóm Xếp hạng giảm thời gian dành cho quy trình điều chỉnh siêu tham số để phát triển mô hình của họ bằng cách cho phép họ lần đầu tiên chạy nhiều thử nghiệm song song, sử dụng chiến lược điều chỉnh tự động và thực hiện công việc đào tạo hai chữ số trong vòng vài ngày, một cái gì đó không khả thi tại cơ sở.

Khả năng giải thích của mô hình với SageMaker Clarify

Khả năng giải thích của mô hình cho phép những người thực hành ML hiểu được bản chất và hành vi của các mô hình ML của họ bằng cách cung cấp những hiểu biết sâu sắc có giá trị cho các quyết định lựa chọn và kỹ thuật tính năng, từ đó cải thiện chất lượng của các dự đoán mô hình. Nhóm Xếp hạng muốn đánh giá những hiểu biết sâu sắc về khả năng giải thích của họ theo hai cách: hiểu cách đầu vào của tính năng ảnh hưởng đến đầu ra của mô hình trên toàn bộ tập dữ liệu của họ (khả năng diễn giải toàn cầu) và cũng có thể khám phá ảnh hưởng của tính năng đầu vào đối với dự đoán mô hình cụ thể về điểm dữ liệu quan tâm ( khả năng diễn giải cục bộ). Với dữ liệu này, các nhà khoa học Xếp hạng ML có thể đưa ra quyết định sáng suốt về cách cải thiện hơn nữa hiệu suất mô hình của họ và tính đến các kết quả dự đoán đầy thách thức mà mô hình đôi khi sẽ cung cấp.

SageMaker Clarify cho phép bạn tạo báo cáo về khả năng giải thích mô hình bằng cách sử dụng Giải thích về phụ gia Shapley (SHAP) khi đào tạo mô hình của bạn trên SageMaker, hỗ trợ cả khả năng diễn giải mô hình toàn cầu và cục bộ. Ngoài các báo cáo về khả năng giải thích mô hình, SageMaker Clarify còn hỗ trợ chạy các phân tích về số liệu sai lệch trước đào tạo, số liệu sai lệch sau đào tạo và biểu đồ phụ thuộc một phần. Công việc sẽ được chạy dưới dạng công việc Xử lý SageMaker trong tài khoản AWS và nó tích hợp trực tiếp với quy trình SageMaker.

Báo cáo khả năng diễn giải toàn cầu sẽ được tạo tự động trong đầu ra công việc và hiển thị trong Xưởng sản xuất Amazon SageMaker môi trường như là một phần của quá trình chạy thử nghiệm huấn luyện. Nếu mô hình này sau đó được đăng ký trong sổ đăng ký mô hình SageMaker thì báo cáo sẽ được liên kết bổ sung với tạo phẩm mô hình. Bằng cách sử dụng cả hai tùy chọn này, nhóm Xếp hạng có thể dễ dàng theo dõi các phiên bản mô hình khác nhau và những thay đổi về hành vi của chúng.

Để khám phá tác động của tính năng đầu vào đối với một dự đoán duy nhất (các giá trị có thể diễn giải cục bộ), nhóm Xếp hạng đã bật tham số save_local_shap_values trong các công việc SageMaker Clarify và có thể tải chúng từ nhóm S3 để phân tích sâu hơn trong sổ ghi chép Jupyter trong SageMaker Studio.

Các hình ảnh trước đây cho thấy một ví dụ về cách giải thích mô hình đối với một mô hình ML tùy ý.

Tối ưu hóa đào tạo

Sự phát triển của deep learning (DL) đã khiến ML ngày càng trở nên phụ thuộc vào sức mạnh tính toán và lượng dữ liệu khổng lồ. Những người thực hành ML thường phải đối mặt với rào cản sử dụng tài nguyên một cách hiệu quả khi đào tạo các mô hình phức tạp này. Khi bạn tiến hành đào tạo trên các cụm điện toán lớn, nhiều thách thức khác nhau sẽ nảy sinh trong việc tối ưu hóa việc sử dụng tài nguyên, bao gồm các vấn đề như tắc nghẽn I/O, độ trễ khởi chạy hạt nhân, hạn chế về bộ nhớ và tài nguyên không được sử dụng đúng mức. Nếu cấu hình của công việc đào tạo không được tinh chỉnh để đạt hiệu quả thì những trở ngại này có thể dẫn đến việc sử dụng phần cứng dưới mức tối ưu, thời gian đào tạo kéo dài hoặc thậm chí là các đợt đào tạo không đầy đủ. Những yếu tố này làm tăng chi phí dự án và thời gian trì hoãn.

Việc lập hồ sơ sử dụng CPU và GPU giúp hiểu rõ những điểm thiếu hiệu quả này, xác định mức tiêu thụ tài nguyên phần cứng (thời gian và bộ nhớ) của các hoạt động TensorFlow khác nhau trong mô hình của bạn, giải quyết các tắc nghẽn về hiệu suất và cuối cùng là làm cho mô hình chạy nhanh hơn.

Nhóm xếp hạng đã sử dụng tính năng lập hồ sơ khung của Trình gỡ lỗi Amazon SageMaker (hiện không còn được dùng nữa để ủng hộ Trình phân tích hồ sơ Amazon SageMaker) để tối ưu hóa các công việc đào tạo này. Điều này cho phép bạn theo dõi tất cả các hoạt động trên CPU và GPU, chẳng hạn như việc sử dụng CPU và GPU, chạy kernel trên GPU, khởi chạy kernel trên CPU, hoạt động đồng bộ hóa, hoạt động bộ nhớ trên GPU, độ trễ giữa các lần khởi chạy kernel và các lần chạy tương ứng cũng như truyền dữ liệu giữa các CPU. và GPU.

Nhóm xếp hạng cũng sử dụng Trình hồ sơ TensorFlow tính năng của TenorBoard, điều này đã giúp lập hồ sơ thêm cho quá trình đào tạo mô hình TensorFlow. SageMaker bây giờ là tích hợp hơn nữa với TensorBoard và đưa các công cụ trực quan hóa của TensorBoard vào SageMaker, được tích hợp với các miền và chương trình đào tạo của SageMaker. TensorBoard cho phép bạn thực hiện các tác vụ gỡ lỗi mô hình bằng cách sử dụng các plugin trực quan hóa TensorBoard.

Với sự trợ giúp của hai công cụ này, nhóm Xếp hạng đã tối ưu hóa mô hình TensorFlow của họ và có thể xác định các điểm nghẽn cũng như giảm thời gian bước đào tạo trung bình từ 350 mili giây xuống 140 mili giây trên CPU và từ 170 mili giây xuống 70 mili giây trên GPU, tăng tốc 60% và 59% tương ứng.

Kết quả kinh doanh

Các nỗ lực di chuyển tập trung vào việc nâng cao tính khả dụng, khả năng mở rộng và độ linh hoạt, cùng nhau đưa môi trường ML hướng tới một cấp độ hoạt động xuất sắc mới, được minh chứng bằng tần suất đào tạo mô hình tăng lên và giảm lỗi, thời gian đào tạo được tối ưu hóa và khả năng ML nâng cao.

Tần suất đào tạo mô hình và thất bại

Số lượng công việc đào tạo mô hình hàng tháng tăng gấp năm lần, dẫn đến việc tối ưu hóa mô hình thường xuyên hơn đáng kể. Hơn nữa, môi trường ML mới đã giúp giảm tỷ lệ thất bại khi vận hành đường ống, giảm từ khoảng 50% xuống 20%. Thời gian xử lý công việc thất bại giảm đáng kể, trung bình từ hơn một giờ xuống còn 5 giây không đáng kể. Điều này đã làm tăng mạnh mẽ hiệu quả hoạt động và giảm lãng phí tài nguyên.

Tối ưu hóa thời gian tập luyện

Việc di chuyển mang lại hiệu quả tăng lên thông qua đào tạo GPU dựa trên SageMaker. Sự thay đổi này đã giảm thời gian đào tạo mô hình xuống còn 60/12 so với thời gian trước đó. Trước đây, quá trình đào tạo cho các mô hình deep learning tiêu tốn khoảng XNUMX giờ trên CPU; điều này đã được sắp xếp hợp lý thành khoảng XNUMX giờ trên GPU. Cải tiến này không chỉ tiết kiệm thời gian mà còn đẩy nhanh chu kỳ phát triển, cho phép lặp lại và cải tiến mô hình nhanh hơn.

Khả năng ML nâng cao

Trọng tâm của sự thành công của quá trình di chuyển là việc sử dụng bộ tính năng SageMaker, bao gồm việc điều chỉnh siêu tham số và khả năng giải thích mô hình. Hơn nữa, việc di chuyển cho phép theo dõi thử nghiệm liền mạch bằng cách sử dụng Thử nghiệm Amazon SageMaker, cho phép thử nghiệm sâu sắc và hiệu quả hơn.

Quan trọng nhất, môi trường thử nghiệm ML mới đã hỗ trợ sự phát triển thành công của một mô hình mới hiện đang được sản xuất. Mô hình này là deep learning chứ không phải dựa trên cây và đã mang lại những cải tiến đáng chú ý về hiệu suất của mô hình trực tuyến.

Kết luận

Bài đăng này cung cấp thông tin tổng quan về sự cộng tác giữa AWS Professional Services và Booking.com, giúp triển khai khung ML có thể mở rộng và giảm thành công thời gian đưa ra thị trường các mô hình ML của nhóm Xếp hạng của họ.

Nhóm Xếp hạng tại Booking.com nhận thấy rằng việc di chuyển sang đám mây và SageMaker đã tỏ ra có lợi, đồng thời việc điều chỉnh các hoạt động vận hành máy học (MLOps) cho phép các kỹ sư và nhà khoa học ML của họ tập trung vào chuyên môn của họ và tăng tốc độ phát triển. Nhóm đang chia sẻ những kiến ​​thức đã học và công việc đã thực hiện với toàn bộ cộng đồng ML tại Booking.com, thông qua các cuộc trò chuyện và phiên họp riêng với những người thực hành ML nơi họ chia sẻ mã và khả năng. Chúng tôi hy vọng bài đăng này có thể phục vụ như một cách khác để chia sẻ kiến ​​thức.

AWS Professional Services sẵn sàng giúp nhóm của bạn phát triển ML có thể mở rộng và sẵn sàng sản xuất trong AWS. Để biết thêm thông tin, xem Dịch vụ chuyên nghiệp của AWS hoặc liên hệ thông qua người quản lý tài khoản của bạn để liên lạc.


Về các tác giả

Laurens van der Maas là Kỹ sư máy học tại AWS Professional Services. Anh hợp tác chặt chẽ với khách hàng để xây dựng giải pháp máy học trên AWS, chuyên đào tạo phân tán, thử nghiệm và AI có trách nhiệm, đồng thời đam mê cách học máy đang thay đổi thế giới như chúng ta biết.

Daniel Zagyva là Nhà khoa học dữ liệu tại AWS Professional Services. Anh ấy chuyên phát triển các giải pháp machine learning ở cấp sản xuất, có khả năng mở rộng cho khách hàng AWS. Kinh nghiệm của anh trải rộng trên nhiều lĩnh vực khác nhau, bao gồm xử lý ngôn ngữ tự nhiên, AI tổng hợp và hoạt động học máy.

Kostia Kofman là Giám đốc Machine Learning cấp cao tại Booking.com, lãnh đạo nhóm ML Xếp hạng Tìm kiếm, giám sát hệ thống ML mở rộng nhất của Booking.com. Với chuyên môn về Cá nhân hóa và Xếp hạng, anh phát triển nhờ tận dụng công nghệ tiên tiến để nâng cao trải nghiệm của khách hàng.

Jenny Tokar là Kỹ sư máy học cao cấp tại nhóm Xếp hạng tìm kiếm của Booking.com. Cô ấy chuyên phát triển các quy trình ML từ đầu đến cuối được đặc trưng bởi tính hiệu quả, độ tin cậy, khả năng mở rộng và sự đổi mới. Chuyên môn của Jenny giúp nhóm của cô tạo ra các mô hình xếp hạng tiên tiến phục vụ hàng triệu người dùng mỗi ngày.

Aleksandra Dokic là Nhà khoa học dữ liệu cấp cao tại AWS Professional Services. Cô thích hỗ trợ khách hàng xây dựng các giải pháp AI/ML cải tiến trên AWS và cô rất hào hứng với những chuyển đổi trong kinh doanh thông qua sức mạnh của dữ liệu.

Luba Protsiva là Người quản lý tương tác tại AWS Professional Services. Cô chuyên cung cấp các giải pháp Dữ liệu và GenAI/ML cho phép khách hàng AWS tối đa hóa giá trị kinh doanh của họ và đẩy nhanh tốc độ đổi mới.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img