Logo Zephyrnet

Định giá tối ưu để có lợi nhuận tối đa bằng cách sử dụng Amazon SageMaker

Ngày:

Đây là bài đăng của Viktor Enrico Jeney, Kỹ sư máy học cấp cao tại Adspert.

chuyên gia quảng cáo là một ISV có trụ sở tại Berlin, đã phát triển một công cụ quản lý giá thầu được thiết kế để tự động tối ưu hóa hiệu suất các chiến dịch quảng cáo và tiếp thị. Nguyên tắc cốt lõi của công ty là tự động hóa tối đa hóa lợi nhuận của quảng cáo thương mại điện tử với sự trợ giúp của trí tuệ nhân tạo. Sự phát triển liên tục của các nền tảng quảng cáo mở đường cho những cơ hội mới, được Adspert tận dụng một cách chuyên nghiệp để mang lại thành công cho khách hàng của họ.

Mục tiêu chính của Adspert là đơn giản hóa quy trình cho người dùng trong khi tối ưu hóa các chiến dịch quảng cáo trên các nền tảng khác nhau. Điều này bao gồm việc sử dụng thông tin thu thập được trên các nền tảng khác nhau được cân bằng với ngân sách tối ưu được đặt ở mức trên mỗi nền tảng. Trọng tâm của Adspert là tối ưu hóa việc đạt được mục tiêu của khách hàng, bất kể nền tảng nào được sử dụng. Adspert tiếp tục bổ sung các nền tảng khi cần thiết để mang lại cho khách hàng của chúng tôi những lợi thế đáng kể.

Trong bài đăng này, chúng tôi chia sẻ cách Adspert tạo công cụ định giá từ đầu bằng cách sử dụng các dịch vụ AWS khác nhau như Amazon SageMaker và cách Adspert cộng tác với Phòng thí nghiệm dữ liệu AWS để đẩy nhanh dự án này từ thiết kế đến xây dựng trong thời gian kỷ lục.

Công cụ định giá in lại sản phẩm do người bán chọn trên thị trường thương mại điện tử dựa trên khả năng hiển thị và tỷ suất lợi nhuận để tối đa hóa lợi nhuận trên cấp độ sản phẩm.

Là người bán, điều cần thiết là sản phẩm của bạn luôn được hiển thị vì điều này sẽ làm tăng doanh số bán hàng. Yếu tố quan trọng nhất trong bán hàng thương mại điện tử chỉ đơn giản là nếu phiếu mua hàng của bạn hiển thị với khách hàng thay vì phiếu mua hàng của đối thủ cạnh tranh.

Mặc dù chắc chắn nó phụ thuộc vào nền tảng thương mại điện tử cụ thể, nhưng chúng tôi nhận thấy rằng giá sản phẩm là một trong những số liệu chính quan trọng nhất có thể ảnh hưởng đến khả năng hiển thị. Tuy nhiên, giá cả thay đổi thường xuyên và nhanh chóng; vì lý do này, công cụ định giá cần hoạt động trong thời gian gần thực để tăng khả năng hiển thị.

Tổng quan về giải pháp

Sơ đồ sau minh họa kiến ​​trúc giải pháp.

Giải pháp chứa các thành phần sau:

  1. Dịch vụ cơ sở dữ liệu quan hệ của Amazon (Amazon RDS) dành cho PostgreSQL là nguồn dữ liệu chính, chứa thông tin sản phẩm được lưu trữ trong cơ sở dữ liệu RDS for Postgres.
  2. Danh sách sản phẩm thay đổi thông tin đến trong thời gian thực trong một Dịch vụ xếp hàng đơn giản trên Amazon Hàng đợi (Amazon SQS).
  3. Thông tin sản phẩm được lưu trữ trong Amazon RDS được nhập trong thời gian gần thực vào lớp thô bằng cách sử dụng mẫu thu thập dữ liệu thay đổi (CDC) có sẵn trong Dịch vụ di chuyển cơ sở dữ liệu AWS (AWS DMS).
  4. Thông báo danh sách sản phẩm đến từ Amazon SQS được nhập trong thời gian gần thực vào lớp thô bằng cách sử dụng AWS Lambda chức năng.
  5. Dữ liệu nguồn ban đầu được lưu trữ trong Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) nhóm lớp thô sử dụng định dạng dữ liệu Parquet. Lớp này là nguồn trung thực duy nhất cho hồ dữ liệu. Phân vùng được sử dụng trên bộ lưu trữ này hỗ trợ quá trình xử lý dữ liệu gia tăng.
  6. Keo AWS các công việc trích xuất, chuyển đổi và tải (ETL) làm sạch dữ liệu sản phẩm, loại bỏ các bản sao và áp dụng hợp nhất dữ liệu và các chuyển đổi chung không gắn với một trường hợp kinh doanh cụ thể.
  7. Lớp giai đoạn Amazon S3 nhận dữ liệu đã chuẩn bị được lưu trữ ở định dạng Apache Parquet để xử lý thêm. Phân vùng được sử dụng trên cửa hàng sân khấu hỗ trợ quá trình xử lý dữ liệu gia tăng.
  8. Các công việc AWS Glue được tạo trong lớp này sử dụng dữ liệu có sẵn trong lớp giai đoạn Amazon S3. Điều này bao gồm việc áp dụng các quy tắc kinh doanh cụ thể cho từng trường hợp sử dụng và các tính toán bắt buộc. Dữ liệu kết quả từ những công việc này được lưu trữ trong lớp phân tích Amazon S3.
  9. Lớp phân tích Amazon S3 được sử dụng để lưu trữ dữ liệu được các mô hình ML sử dụng cho mục đích đào tạo. Phân vùng được sử dụng trên cửa hàng được sắp xếp dựa trên mức sử dụng dữ liệu dự kiến. Điều này có thể khác với phân vùng được sử dụng trên lớp sân khấu.
  10. Mô hình ML định giá lại là một triển khai Scikit-Learn Random Forest trong SageMaker Script Mode, được đào tạo bằng cách sử dụng dữ liệu có sẵn trong nhóm S3 (lớp phân tích).
  11. Công việc xử lý dữ liệu AWS Glue chuẩn bị dữ liệu cho suy luận trong thời gian thực. Công việc xử lý dữ liệu được nhập vào nhóm S3 (lớp sân khấu) và gọi điểm cuối suy luận SageMaker. Dữ liệu được chuẩn bị để sử dụng bởi mô hình định giá lại SageMaker. AWS Glue được ưa thích hơn Lambda, vì suy luận yêu cầu các hoạt động xử lý dữ liệu phức tạp khác nhau như các phép nối và các hàm cửa sổ trên một khối lượng lớn dữ liệu (hàng tỷ giao dịch hàng ngày). Kết quả từ các lệnh gọi mô hình định giá lại được lưu trữ trong nhóm S3 (lớp suy luận).
  12. Công việc đào tạo SageMaker được triển khai bằng cách sử dụng điểm cuối của SageMaker. Điểm cuối này được gọi bởi bộ xử lý suy luận AWS Glue, tạo ra các đề xuất giá gần thời gian thực để tăng khả năng hiển thị sản phẩm.
  13. Các dự đoán được tạo bởi điểm cuối suy luận SageMaker được lưu trữ trong lớp suy luận Amazon S3.
  14. Chức năng tối ưu hóa dự đoán Lambda xử lý các đề xuất do điểm cuối suy luận SageMaker tạo ra và tạo đề xuất giá mới tập trung vào việc tối đa hóa lợi nhuận của người bán, áp dụng sự cân bằng giữa khối lượng bán hàng và tỷ suất lợi nhuận bán hàng.
  15. Các đề xuất về giá được tạo bởi trình tối ưu hóa dự đoán Lambda được gửi đến API định giá lại, API này cập nhật giá sản phẩm trên thị trường.
  16. Các đề xuất giá cập nhật được tạo bởi trình tối ưu hóa dự đoán Lambda được lưu trữ trong lớp tối ưu hóa Amazon S3.
  17. Công việc trình nạp dự đoán AWS Glue tải lại vào nguồn RDS cho cơ sở dữ liệu Postgres SQL các dự đoán được tạo bởi mô hình ML cho mục đích kiểm tra và báo cáo. AWS Glue Studio đã được sử dụng để triển khai thành phần này; đó là một giao diện đồ họa giúp bạn dễ dàng tạo, chạy và giám sát các công việc ETL trong AWS Glue.

Chuẩn bị dữ liệu

Tập dữ liệu cho mô hình khả năng hiển thị của Adspert được tạo từ hàng đợi SQS và được nhập vào lớp thô của hồ dữ liệu của chúng tôi trong thời gian thực với Lambda. Sau đó, dữ liệu thô được làm sạch bằng cách thực hiện các phép biến đổi đơn giản, chẳng hạn như loại bỏ các bản sao. Quá trình này được thực hiện trong AWS Glue. Kết quả được lưu trữ trong lớp dàn dựng của hồ dữ liệu của chúng tôi. Các thông báo cung cấp cho các đối thủ cạnh tranh về một sản phẩm nhất định, giá cả, kênh thực hiện, thời gian vận chuyển và nhiều biến số khác. Chúng cũng cung cấp một thước đo khả năng hiển thị phụ thuộc vào nền tảng, có thể được biểu thị dưới dạng một biến Boolean (hiển thị hoặc không hiển thị). Chúng tôi nhận được thông báo bất kỳ khi nào xảy ra thay đổi phiếu mua hàng, điều này có thể cộng thêm vài triệu sự kiện mỗi tháng trên tất cả các sản phẩm của khách hàng.

Từ tập dữ liệu này, chúng tôi trích xuất dữ liệu đào tạo như sau: đối với mọi thông báo, chúng tôi ghép nối các ưu đãi hiển thị với mọi ưu đãi không hiển thị và ngược lại. Mỗi điểm dữ liệu đại diện cho sự cạnh tranh giữa hai người bán, trong đó có người thắng và người thua rõ ràng. Công việc xử lý này được triển khai trong công việc AWS Glue với Spark. Tập dữ liệu đào tạo đã chuẩn bị được đẩy sang nhóm phân tích S3 để SageMaker sử dụng.

Đào tạo mô hình

Mô hình của chúng tôi phân loại cho từng cặp ưu đãi, nếu ưu đãi nhất định sẽ hiển thị. Mô hình này cho phép chúng tôi tính toán mức giá tốt nhất cho khách hàng, tăng khả năng hiển thị dựa trên sự cạnh tranh và tối đa hóa lợi nhuận của họ. Trên hết, mô hình phân loại này có thể cung cấp cho chúng tôi những hiểu biết sâu hơn về lý do khiến danh sách của chúng tôi hiển thị hoặc không hiển thị. Chúng tôi sử dụng các tính năng sau:

  • Tỷ lệ giữa giá của chúng tôi với giá của đối thủ cạnh tranh
  • Sự khác biệt trong các kênh thực hiện
  • Số lượng phản hồi cho mỗi người bán
  • Đánh giá phản hồi của từng người bán
  • Chênh lệch về thời gian vận chuyển tối thiểu
  • Chênh lệch về thời gian vận chuyển tối đa
  • Tính sẵn có của từng sản phẩm của người bán

Adspert sử dụng SageMaker để đào tạo và lưu trữ mô hình. Chúng tôi sử dụng triển khai Scikit-Learn Random Forest trong Chế độ tập lệnh SageMaker. Chúng tôi cũng bao gồm một số tính năng tiền xử lý trực tiếp trong đường dẫn Scikit-Learn trong tập lệnh đào tạo. Xem đoạn mã sau:

import numpy as np

def transform_price(X):
    X = X.to_numpy()
    return np.log(
        X[:, 0] / np.nanmin([X[:, 1], X[:, 2]], axis=0),
    ).reshape(-1, 1)

def difference(X):
    X = X.to_numpy()
    return (X[:, 0] - X[:, 1]).reshape(-1, 1)

def fulfillment_difference(X):
    X = X.astype(int)
    return difference(X)

Một trong những chức năng tiền xử lý quan trọng nhất là transform_price, chia giá tối thiểu cho giá của đối thủ cạnh tranh và cột giá bên ngoài. Chúng tôi nhận thấy rằng đây là tính năng có tác động liên quan đến độ chính xác của mô hình. Chúng tôi cũng áp dụng logarit để cho phép mô hình quyết định dựa trên chênh lệch giá tương đối, không phải chênh lệch giá tuyệt đối.

Trong tạp chí training_script.py script, trước tiên chúng tôi xác định cách xây dựng Scikit-Learn ColumnTransformer để áp dụng các máy biến áp được chỉ định cho các cột của khung dữ liệu:

import argparse
import os
from io import StringIO

import joblib
import numpy as np
import pandas as pd
from custom_transformers import difference
from custom_transformers import fulfillment_difference
from custom_transformers import transform_price
from sklearn.compose import ColumnTransformer
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import FunctionTransformer
from sklearn.preprocessing import OneHotEncoder

def make_preprocessor():
    return ColumnTransformer([
        ('price_by_smallest_cp', FunctionTransformer(transform_price),
         ['price', 'competitor_price', 'external_price']),
        (fulfillment_difference, FunctionTransformer(fulfillment_difference),
         ['fulfillment', 'competitor_'fulfillment']),
        ('feedback_count', 'passthrough',
         ['feedback_count', 'competitor_feedback_count']),
        ('feedback_rating', 'passthrough',
         ['feedback_rating', 'competitor_feedback_rating']),
        (
            'availability_type',
            OneHotEncoder(categories=[['NOW'], ['NOW']],
                          handle_unknown='ignore'),
            ['availability_type', 'competitor_availability_type'],
        ),
        ('min_shipping', FunctionTransformer(difference),
         ['minimum_shipping_hours', 'competitor_min_shipping_hours']),
        ('max_shipping', FunctionTransformer(difference),
         ['maximum_shipping_hours', 'competitor_max_shipping_hours']),
    ], remainder='drop')

Trong tập lệnh huấn luyện, chúng tôi tải dữ liệu từ Parquet vào khung dữ liệu Pandas, xác định đường dẫn của ColumnTranformerRandomForestClassifiervà đào tạo người mẫu. Sau đó, mô hình được tuần tự hóa bằng cách sử dụng joblib:

if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument('--output-data-dir', type=str,
                        default=os.environ['SM_OUTPUT_DATA_DIR'])
    parser.add_argument('--model-dir', type=str,
                        default=os.environ['SM_MODEL_DIR'])
    parser.add_argument('--train', type=str,
                        default=os.environ['SM_CHANNEL_TRAIN'])

    args = parser.parse_args()

    # load training data
    input_files = [os.path.join(args.train, file)
                   for file in os.listdir(args.train)]
    if len(input_files) == 0:
        raise ValueError
    raw_data = [pd.read_parquet(file) for file in input_files]
    train_data = pd.concat(raw_data)

    # split data set into x and y values
    train_y = train_data.loc[:, 'is_visible']

    if train_y.dtype != 'bool':
        raise ValueError(f'Label 'is_visible' has to be dtype bool but is'
                         f' {train_y.dtype}')

    train_X = train_data.drop('is_visible', axis=1)

    # fit the classifier pipeline and store the fitted model
    clf = Pipeline([
        ('preprocessor', make_preprocessor()),
        ('classifier', RandomForestClassifier(random_state=1)),
    ])
    clf.fit(train_X, train_y)
    joblib.dump(clf, os.path.join(args.model_dir, 'model.joblib'))

Trong tập lệnh huấn luyện, chúng ta cũng phải triển khai các hàm để suy luận:

  • đầu vào_fn - Chịu trách nhiệm phân tích cú pháp dữ liệu từ phần thân yêu cầu của tải trọng
  • người mẫu_fn - Tải và trả về mô hình đã được kết xuất trong phần đào tạo của tập lệnh
  • dự đoán_fn - Chứa việc triển khai của chúng tôi để yêu cầu dự đoán từ mô hình bằng cách sử dụng dữ liệu từ tải trọng
  • dự đoán_proba - Để vẽ các đường cong khả năng hiển thị được dự đoán, chúng tôi trả về xác suất lớp bằng cách sử dụng predict_proba hàm, thay vì dự đoán nhị phân của bộ phân loại

Xem mã sau đây:

def input_fn(request_body, request_content_type):
    """Parse input data payload"""
    if request_content_type == 'text/csv':
        df = pd.read_csv(StringIO(request_body))
        return df
    else:
        raise ValueError(f'{request_content_type} not supported by script!')


def predict_fn(input_data, model):
    """Predict the visibilities"""
    classes = model.classes_

    if len(classes) != 2:
        raise ValueError('Model has more than 2 classes!')

    # get the index of the winning class
    class_index = np.where(model.classes_ == 1)[0][0]

    output = model.predict_proba(input_data)
    return output[:, class_index]


def model_fn(model_dir):
    """Deserialized and return fitted model

    Note that this should have the same name as the serialized model in the
    main method
    """
    clf = joblib.load(os.path.join(model_dir, 'model.joblib'))
    return clf

Hình dưới đây cho thấy các đặc tính dựa trên tạp chất được trả về bởi Bộ phân loại rừng ngẫu nhiên.

Với SageMaker, chúng tôi có thể đào tạo mô hình trên một lượng lớn dữ liệu (lên đến 14 tỷ giao dịch hàng ngày) mà không cần tải lên các phiên bản hiện có của chúng tôi hoặc phải thiết lập một máy riêng có đủ tài nguyên. Hơn nữa, vì các phiên bản được đóng ngay lập tức sau công việc đào tạo, đào tạo với SageMaker cực kỳ tiết kiệm chi phí. Việc triển khai mô hình với SageMaker đã hoạt động mà không cần thêm bất kỳ khối lượng công việc nào. Một lệnh gọi hàm duy nhất trong SDK Python là đủ để lưu trữ mô hình của chúng tôi như một điểm cuối suy luận và nó cũng có thể dễ dàng được yêu cầu từ các dịch vụ khác bằng SageMaker Python SDK. Xem đoạn mã sau:

from sagemaker.sklearn.estimator import SKLearn

FRAMEWORK_VERSION = "0.23-1"
script_path = 'training_script.py'
output_location = f's3://{bucket}/{folder}/output'
source_dir = 'source_dir'

sklearn = SKLearn(
    entry_point=script_path,
    source_dir=source_dir,
    framework_version=FRAMEWORK_VERSION,
    instance_type='ml.m5.large',
    role=role,
    sagemaker_session=sagemaker_session,
    output_path=output_location)

sklearn.fit({'train': training_path})

Đồ tạo tác mô hình được lưu trữ trong Amazon S3 theo chức năng vừa vặn. Như đã thấy trong đoạn mã sau, mô hình có thể được tải dưới dạng SKLearnModel đối tượng bằng cách sử dụng tạo tác mô hình, đường dẫn tập lệnh và một số tham số khác. Sau đó, nó có thể được triển khai tới loại phiên bản và số lượng phiên bản mong muốn.

model = sagemaker.sklearn.model.SKLearnModel(
    model_data=f'{output_location}/sagemaker-scikit-learn-2021-02-23-11-13-30-036/output/model.tar.gz',
    source_dir=source_dir,
    entry_point=script_path,
    framework_version=FRAMEWORK_VERSION,
    sagemaker_session=sagemaker_session,
    role=role
)
ENDPOINT_NAME = 'visibility-model-v1'
model.deploy(
    initial_instance_count=1,
    instance_type='ml.m5.large',
    endpoint_name=ENDPOINT_NAME
)

Đánh giá mô hình trong thời gian thực

Bất cứ khi nào một thông báo mới được gửi cho một trong các sản phẩm của chúng tôi, chúng tôi muốn tính toán và gửi mức giá tối ưu. Để tính toán mức giá tối ưu, chúng tôi tạo tập dữ liệu dự đoán, trong đó chúng tôi so sánh ưu đãi của chính mình với ưu đãi của từng đối thủ cạnh tranh cho một loạt các mức giá có thể có. Các điểm dữ liệu này được chuyển tới điểm cuối SageMaker, điểm này trả về xác suất dự đoán có thể nhìn thấy đối với từng đối thủ cạnh tranh cho mỗi mức giá nhất định. Chúng tôi gọi xác suất được nhìn thấy là khả năng hiển thị dự đoán. Kết quả có thể được hình dung dưới dạng một đường cong cho từng đối thủ cạnh tranh, mô tả mối quan hệ giữa giá của chúng tôi và khả năng hiển thị, như thể hiện trong hình sau.

Trong ví dụ này, khả năng hiển thị so với Đối thủ cạnh tranh 1 gần như là một hàm hằng số, cho thấy rằng chúng ta chủ yếu phải giảm giá xuống dưới một ngưỡng nhất định, gần bằng giá của đối thủ cạnh tranh, để có thể nhìn thấy được. Tuy nhiên, khả năng hiển thị so với Đối thủ cạnh tranh 2 không giảm mạnh. Hơn hết, chúng ta vẫn có 50% cơ hội được nhìn thấy ngay cả khi phải trả giá rất cao. Phân tích dữ liệu đầu vào cho thấy rằng đối thủ cạnh tranh có lượng xếp hạng thấp, rất kém. Mô hình của chúng tôi nhận ra rằng nền tảng thương mại điện tử cụ thể này gây bất lợi cho người bán có xếp hạng phản hồi kém. Chúng tôi đã phát hiện ra những ảnh hưởng tương tự đối với các tính năng khác, như kênh thực hiện và thời gian vận chuyển.

Các phép biến đổi và suy luận dữ liệu cần thiết đối với điểm cuối SageMaker được triển khai trong AWS Glue. Công việc AWS Glue hoạt động theo lô nhỏ trên dữ liệu thời gian thực được nhập từ Lambda.

Cuối cùng, chúng tôi muốn tính toán đường cong khả năng hiển thị tổng hợp, là khả năng hiển thị được dự đoán cho mỗi mức giá có thể có. Phiếu mua hàng của chúng tôi có thể nhìn thấy nếu nó tốt hơn tất cả các phiếu mua hàng của người bán khác. Giả sử sự độc lập giữa xác suất hiển thị đối với từng người bán theo giá của chúng tôi, xác suất hiển thị đối với tất cả người bán là tích của các xác suất tương ứng. Điều đó có nghĩa là đường cong khả năng hiển thị tổng hợp có thể được tính bằng cách nhân tất cả các đường cong.

Các số liệu sau đây cho thấy tầm nhìn dự đoán được trả về từ điểm cuối SageMaker.

Hình sau đây cho thấy đường cong khả năng hiển thị tổng hợp.

Để tính toán mức giá tối ưu, trước tiên, đường cong khả năng hiển thị được làm mịn và sau đó nhân với lợi nhuận. Để tính toán lợi nhuận, chúng tôi sử dụng chi phí hàng hóa và phí. Giá vốn hàng bán và phí là thông tin sản phẩm tĩnh được đồng bộ hóa qua AWS DMS. Dựa trên chức năng lợi nhuận, Adspert tính toán mức giá tối ưu và gửi nó đến nền tảng thương mại điện tử thông qua API của nền tảng.

Điều này được triển khai trong trình tối ưu hóa dự đoán AWS Lambda.

Hình sau cho thấy mối quan hệ giữa khả năng hiển thị dự đoán và giá cả.

Hình sau đây cho thấy mối quan hệ giữa giá cả và lợi nhuận.

Kết luận

Cách tiếp cận hiện tại của Adspert để tối đa hóa lợi nhuận là tập trung vào quản lý giá thầu để tăng lợi nhuận từ quảng cáo. Tuy nhiên, để đạt được hiệu suất vượt trội trên thị trường thương mại điện tử, người bán phải cân nhắc cả quảng cáo và giá cả cạnh tranh của sản phẩm của họ. Với mô hình ML mới này để dự đoán khả năng hiển thị, chúng tôi có thể mở rộng chức năng của mình để điều chỉnh giá của khách hàng.

Công cụ định giá mới phải có khả năng đào tạo tự động mô hình ML trên một lượng lớn dữ liệu, cũng như chuyển đổi dữ liệu theo thời gian thực, dự đoán và tối ưu hóa giá. Trong bài đăng này, chúng tôi đã đi qua các bước chính của công cụ tối ưu hóa giá của chúng tôi và kiến ​​trúc AWS mà chúng tôi đã triển khai với sự cộng tác của Phòng thí nghiệm dữ liệu AWS để đạt được những mục tiêu đó.

Việc đưa các mô hình ML từ ý tưởng đến sản xuất thường phức tạp và tốn nhiều thời gian. Bạn phải quản lý một lượng lớn dữ liệu để đào tạo mô hình, chọn thuật toán tốt nhất để đào tạo nó, quản lý năng lực tính toán trong khi đào tạo nó, và sau đó triển khai mô hình vào môi trường sản xuất. SageMaker đã giảm bớt sự phức tạp này bằng cách làm cho việc xây dựng và triển khai mô hình ML trở nên đơn giản hơn nhiều. Sau khi chúng tôi chọn các thuật toán và khuôn khổ phù hợp từ nhiều lựa chọn có sẵn, SageMaker đã quản lý tất cả cơ sở hạ tầng cơ bản để đào tạo mô hình của chúng tôi và triển khai nó vào sản xuất.

Nếu bạn muốn bắt đầu tự làm quen với SageMaker, Hội thảo Ngày hòa mình có thể giúp bạn hiểu biết từ đầu đến cuối về cách xây dựng các trường hợp sử dụng ML từ kỹ thuật tính năng, các thuật toán tích hợp khác nhau và cách đào tạo, điều chỉnh và triển khai mô hình ML trong một kịch bản giống như sản xuất. Nó hướng dẫn bạn đưa mô hình của riêng mình và thực hiện nâng và chuyển khối lượng công việc ML tại chỗ sang nền tảng SageMaker. Nó thể hiện rõ hơn các khái niệm nâng cao như gỡ lỗi mô hình, giám sát mô hình và AutoML, đồng thời giúp bạn đánh giá khối lượng công việc ML của mình thông qua thấu kính AWS ML được kiến ​​trúc tốt.

Nếu bạn muốn được trợ giúp đẩy nhanh việc triển khai các trường hợp sử dụng liên quan đến dữ liệu, phân tích, AI và ML, không máy chủ và hiện đại hóa vùng chứa, vui lòng liên hệ với Phòng thí nghiệm dữ liệu AWS.


Giới thiệu về tác giả

Viktor Enrico Jeney là Kỹ sư Máy học Cấp cao tại Adspert có trụ sở tại Berlin, Đức. Anh ấy tạo ra các giải pháp cho các bài toán dự đoán và tối ưu hóa để tăng lợi nhuận của khách hàng. Viktor có kiến ​​thức nền tảng về toán học ứng dụng và thích làm việc với dữ liệu. Khi rảnh rỗi, anh ấy thích học tiếng Hungary, tập võ và chơi guitar.

Ennio Pastore là kiến ​​trúc sư dữ liệu trong nhóm Phòng thí nghiệm dữ liệu AWS. Anh ấy là một người đam mê tất cả mọi thứ liên quan đến công nghệ mới có tác động tích cực đến doanh nghiệp và sinh kế nói chung. Ennio có hơn 9 năm kinh nghiệm trong lĩnh vực phân tích dữ liệu. Anh ấy giúp các công ty xác định và triển khai các nền tảng dữ liệu trong các ngành, chẳng hạn như viễn thông, ngân hàng, trò chơi, bán lẻ và bảo hiểm.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img

Trò chuyện trực tiếp với chúng tôi (chat)

Chào bạn! Làm thế nào để tôi giúp bạn?