제퍼넷 로고

카카오게임즈가 Amazon SageMaker 및 AWS Glue를 사용하여 게임 데이터에서 평생 가치 예측을 자동화하는 방법

시간

이 글은 카카오게임즈 데이터 분석 연구소의 김수형 부장과 공동으로 작성되었습니다.

카카오 게임 는 한국에 본사를 둔 최고의 비디오 게임 퍼블리셔이자 개발사입니다. 전 세계적으로 서비스되는 PC, 모바일 및 가상 현실(VR) 게임 개발 및 퍼블리싱을 전문으로 합니다. 플레이어의 경험을 극대화하고 운영 및 마케팅의 효율성을 향상시키기 위해 지속적으로 새로운 게임 내 아이템을 추가하고 플레이어에게 프로모션을 제공하고 있습니다. 이러한 이벤트의 결과는 나중에 더 나은 결정을 내릴 수 있도록 나중에 평가할 수 있습니다.

그러나 이 접근 방식은 반응적입니다. 평생 가치(LTV)를 예측할 수 있다면 능동적으로 접근할 수 있습니다. 즉, 이러한 활동은 플레이어의 게임 내 평생 동안의 가치를 결정하는 예측 LTV를 기반으로 계획되고 실행될 수 있습니다. 이러한 선제적 접근 방식을 통해 카카오게임즈는 적시에 적절한 이벤트를 시작할 수 있습니다. 일부 플레이어의 예상 LTV가 감소하는 경우 이는 플레이어가 곧 떠날 가능성이 있음을 의미합니다. 그러면 카카오게임즈가 게임을 떠나지 않도록 프로모션 이벤트를 만들 수 있습니다. 따라서 플레이어의 LTV를 정확하게 예측하는 것이 중요합니다. LTV는 게임 회사뿐만 아니라 장기적인 고객 참여가 있는 모든 종류의 서비스에서 채택하는 척도입니다. LTV를 극대화하기 위해 통계적 방법과 ML(Machine Learning) 방법을 적극적으로 개발 및 적용하고 있습니다.

이번 포스팅에서는 카카오게임즈와 아마존 머신 러닝 솔루션 랩 다음과 같은 AWS 데이터 및 ML 서비스를 사용하여 확장 가능하고 안정적인 LTV 예측 솔루션을 구축하기 위해 팀을 구성했습니다. AWS 접착제아마존 세이지 메이커.

카카오게임즈에서 가장 인기 있는 게임 중 하나를 선택했는데, ODIN, 프로젝트의 대상 게임으로. 오딘(ODIN)은 카카오게임즈에서 퍼블리싱하고 운영하는 PC 및 모바일용 MMORPG(대규모 멀티플레이어 온라인 롤플레잉 게임)입니다. 2021년 XNUMX월 론칭하여 국내 매출 XNUMX위권에 진입하였습니다.

카카오게임즈 오딘

도전

이 섹션에서는 다양한 데이터 소스와 관련된 문제, 내부 또는 외부 이벤트로 인한 데이터 드리프트, 솔루션 재사용 가능성에 대해 논의합니다. 이러한 문제는 일반적으로 ML 솔루션을 구현하고 프로덕션 환경에 배포할 때 직면합니다.

내부 및 외부 이벤트의 영향을 받는 플레이어 동작

플레이어 행동에 영향을 미치는 많은 동적 요인이 있기 때문에 LTV를 정확하게 예측하는 것은 어렵습니다. 여기에는 게임 프로모션, 새로 추가된 항목, 공휴일, 악용 또는 불법 플레이에 대한 계정 금지 또는 스포츠 이벤트 또는 악천후와 같은 예기치 않은 외부 이벤트가 포함됩니다. 이것은 이번 달에 작동하는 모델이 다음 달에는 제대로 작동하지 않을 수 있음을 의미합니다.

게임 관련 로그 및 데이터와 함께 외부 이벤트를 ML 기능으로 활용할 수 있습니다. 예를 들어, 아마존 예측 내부 및 외부 관련 이벤트를 반영하기 위해 날씨, 가격, 경제 지표 또는 프로모션과 같은 관련 시계열 데이터를 지원합니다. 또 다른 접근 방식은 데이터 드리프트가 관찰될 때 ML 모델을 정기적으로 새로 고치는 것입니다. 솔루션의 경우 관련 이벤트 데이터를 사용할 수 없고 기존 데이터가 얼마나 신뢰할 수 있는지 확신할 수 없었기 때문에 후자의 방법을 선택했습니다.

지속적인 ML 모델 재교육은 최신 데이터에서 다시 학습하여 이 문제를 극복하는 한 가지 방법입니다. 이를 위해서는 잘 설계된 기능과 ML 아키텍처뿐만 아니라 재학습 프로세스를 자동화할 수 있는 데이터 준비 및 ML 파이프라인도 필요합니다. 그렇지 않으면 복잡성과 반복성 저하로 인해 프로덕션 환경에서 ML 솔루션을 효율적으로 운영할 수 없습니다.

최신 교육 데이터 세트를 사용하여 모델을 재교육하는 것만으로는 충분하지 않습니다. 재훈련된 모델은 기존 모델보다 더 정확한 예측 결과를 제공하지 않을 수 있으므로 평가 없이 단순히 모델을 새 모델로 교체할 수 없습니다. 새 모델이 어떤 이유로 성능이 저하되기 시작하면 이전 모델로 돌아갈 수 있어야 합니다.

이 문제를 해결하기 위해 원시 데이터와 MLOps에서 ML 기능을 생성하는 강력한 데이터 파이프라인을 설계해야 했습니다.

여러 데이터 소스

오딘은 게임플레이어끼리 상호작용하는 MMORPG로 레벨업, 아이템 구매, 골드(게임머니) 헌팅 등 다양한 이벤트가 존재한다. 전 세계 천만 명 이상의 플레이어로부터 매일 약 300GB의 로그를 생성합니다. 게임 로그는 플레이어 로그인, 플레이어 활동, 플레이어 구매 및 플레이어 레벨 업과 같은 다양한 유형입니다. 이러한 유형의 데이터는 ML 관점에서 과거 원시 데이터입니다. 예를 들어 각 로그는 타임스탬프, 사용자 ID, 이벤트 정보 형식으로 기록됩니다. 로그 간격이 일정하지 않습니다. 또한 비역사적 데이터인 연령 및 등록 날짜와 같은 선수를 설명하는 정적 데이터가 있습니다. LTV 예측 모델링은 플레이어의 특성과 행동을 나타내기 위해 서로를 보완하기 때문에 입력으로 이 두 가지 유형의 데이터가 필요합니다.

이 솔루션을 위해 정적 플레이어 기능과 함께 고정된 수의 집계된 단계와 과거 기능을 결합하는 테이블 형식 데이터 세트를 정의하기로 결정했습니다. 집계된 과거 특징은 게임 로그에 저장되어 있는 수많은 게임 로그에서 여러 단계를 거쳐 생성됩니다. 아마존 아테나 테이블. ML 모델의 기능을 정의하는 문제 외에도 ML 추론 및 모델 재훈련을 위해 원시 데이터에서 ML 기능을 가져올 수 있도록 기능 생성 프로세스를 자동화하는 것이 중요합니다.

이 문제를 해결하기 위해 교육 및 추론 데이터 세트 생성을 위해 자동으로 반복적으로 실행할 수 있는 추출, 변환 및 로드(ETL) 파이프라인을 구축합니다.

다른 게임에 대한 확장성

카카오게임즈에는 오딘과 같이 장기간 플레이어 참여가 있는 다른 게임이 있습니다. 당연히 LTV 예측은 이러한 게임에도 도움이 됩니다. 대부분의 게임은 유사한 로그 유형을 공유하기 때문에 이 ML 솔루션을 다른 게임에 재사용하려고 합니다. ML 모델을 설계할 때 서로 다른 게임 간에 공통 로그 및 속성을 사용하여 이 요구 사항을 충족할 수 있습니다. 그러나 여전히 엔지니어링 문제가 있습니다. ETL 파이프라인, MLOps 파이프라인 및 ML 추론은 다른 AWS 계정에서 다시 빌드해야 합니다. 이 복잡한 솔루션의 수동 배포는 확장할 수 없으며 배포된 솔루션을 유지 관리하기 어렵습니다.

이 문제를 해결하기 위해 몇 가지 구성 변경으로 ML 솔루션을 자동 배포할 수 있도록 합니다.

솔루션 개요

LTV 예측을 위한 ML 솔루션은 교육 데이터 세트 ETL 파이프라인, MLOps 파이프라인, 추론 데이터 세트 ETL 파이프라인 및 ML 배치 추론의 네 가지 구성 요소로 구성됩니다.

교육 및 추론 ETL 파이프라인은 Athena 테이블에 저장된 게임 로그 및 플레이어의 메타데이터에서 ML 기능을 생성하고 결과 기능 데이터를 아마존 단순 스토리지 서비스 (Amazon S3) 버킷. ETL에는 여러 변환 단계가 필요하며 워크플로는 AWS Glue를 사용하여 구현됩니다. MLOps는 ML 모델을 학습하고 기존 모델에 대해 학습된 모델을 평가한 다음 학습된 모델이 기존 모델보다 우수한 경우 모델 레지스트리에 등록합니다. 이들은 모두 다음을 사용하여 단일 ML 파이프라인으로 구현됩니다. Amazon SageMaker 파이프 라인, 모든 ML 교육은 다음을 통해 관리됩니다. Amazon SageMaker 실험. SageMaker Experiments를 사용하여 ML 엔지니어는 교육 중 또는 이후에 각 ML 모델에 사용된 교육 및 평가 데이터 세트, 하이퍼파라미터 및 구성을 찾을 수 있습니다. ML 엔지니어는 더 이상 이 학습 메타데이터를 별도로 관리할 필요가 없습니다.

마지막 구성 요소는 다음 몇 주 동안 LTV를 예측하기 위해 정기적으로 실행되는 ML 배치 추론입니다.

다음 그림은 이러한 구성 요소가 단일 ML 솔루션으로 함께 작동하는 방식을 보여줍니다.

ML Ops 아키텍처

솔루션 아키텍처는 다음을 사용하여 구현되었습니다. AWS 클라우드 개발 키트 (AWS CDK) 코드형 인프라(IaC)를 승격하여 다양한 AWS 계정 및 리전에서 버전 제어 및 솔루션 배포를 쉽게 합니다.

다음 섹션에서는 각 구성 요소에 대해 더 자세히 설명합니다.

ML 기능 생성을 위한 데이터 파이프라인

Amazon S3에서 지원하는 Athena에 저장된 게임 로그는 AWS Glue에서 Python 셸 작업으로 생성된 ETL 파이프라인을 통과합니다. 교육 준비가 된 데이터 세트를 생성하기 위해 기능 정확성을 위해 AWS Glue로 Python 스크립트를 실행할 수 있습니다. 각 단계의 해당 테이블은 Athena에서 생성됩니다. 서버리스 아키텍처와 다양한 시작 및 종료 날짜를 전달하여 다양한 버전의 데이터 세트를 생성할 수 있는 유연성으로 인해 ETL 파이프라인을 실행하는 데 AWS Glue를 사용합니다. 인용하다 getResolvedOptions를 사용하여 매개변수에 액세스 파라미터를 AWS Glue 작업에 전달하는 방법에 대해 자세히 알아보십시오. 이 방법을 사용하면 초기 단계에서 게임을 지원하는 4주 정도의 짧은 기간을 포함하도록 데이터 세트를 생성할 수 있습니다. 예를 들어 데이터 세트의 각 버전에 대한 입력 시작 날짜 및 예측 시작 날짜는 다음 코드를 통해 구문 분석됩니다.

import sys
from awsglue.utils import getResolvedOptions args = getResolvedOptions( sys.argv, [ 'JOB_NAME', 'db_name', 'ds_version', 'input_start_date', 'prediction_start_date', 'bucket', 'prefix', 'timestamp' ]
)

AWS Glue 작업은 여러 단계로 설계 및 분할되고 순차적으로 트리거됩니다. 각 작업은 사용자 지정 ETL 파이프라인을 실행하기 위해 위치 및 키-값 쌍 인수를 사용하도록 구성됩니다. 핵심 매개변수 중 하나는 교육에 사용되는 데이터의 시작 날짜와 종료 날짜입니다. 이는 데이터의 시작 날짜와 종료 날짜가 서로 다른 휴일에 걸쳐 있을 수 있고 데이터 세트의 길이를 결정하는 직접적인 요인으로 작용하기 때문입니다. 이 매개변수가 모델 성능에 미치는 영향을 관찰하기 위해 XNUMX개의 서로 다른 데이터 세트 버전(시작 날짜 및 훈련 기간이 다름)을 만들었습니다.

특히 Amazon S4가 지원하는 12개의 Athena 데이터베이스에서 시작 날짜(16주 이동)와 교육 기간(20주, 24주, 28주, 3주, XNUMX주)이 다른 데이터 세트 버전을 생성했습니다. 데이터 세트의 각 버전에는 플레이어 특성 및 게임 내 구매 활동 시계열 데이터를 설명하는 기능이 포함되어 있습니다.

머신러닝 모델

우리는 선택했다 오토글루온 SageMaker 파이프라인으로 구현된 모델 교육용. AutoGluon은 자동화된 기계 학습(AutoML)을 위한 툴킷입니다. 자동화된 스택 앙상블, 딥 러닝 및 이미지, 텍스트 및 테이블 형식 데이터에 걸친 실제 애플리케이션에 중점을 두고 사용하기 쉽고 확장하기 쉬운 AutoML을 지원합니다.

AutoGluon 독립형을 사용하여 ML 모델을 교육하거나 다음과 함께 사용할 수 있습니다. Amazon SageMaker 자동 조종 장치, ML 모델 교육 및 배포를 위한 완전 관리형 환경을 제공하는 SageMaker의 기능입니다.

일반적으로 SageMaker에서 제공하는 완전 관리형 환경(자동 조정 및 리소스 관리, 훈련된 모델의 손쉬운 배포 등)을 활용하려면 Autopilot과 함께 AutoGluon을 사용해야 합니다. 이는 ML을 처음 사용하고 기본 인프라에 대한 걱정 없이 모델 교육 및 평가에 집중하려는 경우에 특히 유용할 수 있습니다.

맞춤형 방식으로 ML 모델을 교육하려는 경우 AutoGluon 독립 실행형을 사용할 수도 있습니다. 우리의 경우 SageMaker와 함께 AutoGluon을 사용하여 이탈 분류 및 평생 가치 회귀를 포함한 XNUMX단계 예측을 실현했습니다. 이 경우 게임 아이템 구매를 중단한 플레이어는 이탈한 것으로 간주됩니다.

LTV 예측을 위한 모델링 접근 방식과 플레이어의 구매 패턴을 변경하는 내부 또는 외부 이벤트를 의미하는 데이터 드리프트 증상에 대한 모델 재교육의 효율성에 대해 이야기해 보겠습니다.

먼저, 모델링 프로세스는 이진 분류(플레이어를 이탈 여부로 분류)와 이탈하지 않은 플레이어의 LTV 값을 예측하도록 훈련된 회귀 모델을 포함하여 두 단계로 분리되었습니다.

  • 무대 1 – LTV에 대한 목표 값은 이진 레이블로 변환되며, LTV = 0LTV > 0. AutoGluon TabularPredictor는 F1 점수를 최대화하도록 훈련되었습니다.
  • 무대 2 – AutoGluon TabularPredictor를 사용하는 회귀 모델은 LTV > 0 실제 LTV 회귀를 위해.

모델 테스트 단계에서 테스트 데이터는 두 모델을 순차적으로 거칩니다.

  • 무대 1 – 이진 분류 모델은 이진 예측 0을 얻기 위해 테스트 데이터에서 실행됩니다(사용자는 LTV = 0, 이탈) 또는 1(사용자가 LTV > 0, 휘젓지 않음).
  • 무대 2 – 예측 플레이어 LTV > 0 회귀 모델을 통해 예측된 실제 LTV 값을 얻습니다. 가진 것으로 예측된 ​​사용자와 결합 LTV = 0, 최종 LTV 예측 결과가 생성됩니다.

각 실험 및 데이터 세트의 각 버전에 대한 교육 구성과 연결된 모델 아티팩트는 교육 후 S3 버킷에 저장되고 SageMaker 파이프라인 실행 내의 SageMaker 모델 레지스트리에도 등록됩니다.

데이터세트 v1(12월부터 1주)에서 훈련된 동일한 모델을 사용하여 데이터 드리프트가 있는지 테스트하기 위해 데이터세트 v2, v4(시작 시간이 3주 앞당겨짐), v8(앞으로 4주 앞당겨진 시작 시간)에 대해 추론을 실행합니다. 5주), v0 및 v1의 경우에도 마찬가지입니다. 다음 표에는 모델 성능이 요약되어 있습니다. 비교에 사용되는 메트릭은 범위가 XNUMX–XNUMX인 minmax 점수입니다. LTV 예측이 실제 LTV 값에 가까울수록 더 높은 수치를 제공합니다.

데이터 세트 버전 최소 최대 점수 v1과의 차이점
v1 0.68756 -
v2 0.65283 -0.03473
v3 0.66173 -0.02584
v4 0.69633 0.00877
v5 0.71533 0.02777

데이터 세트 v2 및 v3에서 성능 저하가 나타납니다. 이는 데이터 세트 v2 및 v3에서 성능이 저하되는 다양한 모델링 접근 방식에서 수행된 분석과 일치합니다. v4 및 v5의 경우 모델은 동등한 성능을 나타내며 모델 재훈련 없이도 v5에서 약간의 개선을 보여줍니다. 그러나 데이터세트 v1(5)의 모델 v0.71533 성능과 데이터세트 v5(5)의 모델 v0.7599 성능을 비교할 때 모델 재훈련이 성능을 크게 향상시키고 있습니다.

교육 파이프라인

SageMaker Pipelines는 ML 워크플로를 구성, 관리 및 재사용하는 간편한 방법을 제공합니다. 프로덕션에 배포하기 위한 최상의 모델을 선택합니다. 모델을 자동으로 추적합니다. CI/CD를 ML 파이프라인에 통합합니다.

교육 단계에서 SageMaker Estimator는 다음 코드로 구성됩니다. 교육 작업을 생성하는 일반 SageMaker Estimator와 달리 SageMaker 파이프라인 세션을 SageMaker_session SageMaker 세션 대신:

from sagemaker.estimator import Estimator
from sagemaker.workflow.pipeline_context import PipelineSession pipeline_session = PipelineSession() ltv_train = Estimator( image_uri=image_uri, instance_type=instance_type, instance_count=1, output_path=output_path, base_job_name=f'{base_jobname_prefix}/train', role=role, source_dir=source_dir, entry_point=entry_point, sagemaker_session=pipeline_session, hyperparameters=hyperparameters
)

기본 이미지는 다음 코드로 검색됩니다.

image_uri = SageMaker.image_uris.retrieve( "AutoGluon", region=region, version=framework_version, py_version=py_version, image_scope="training", instance_type=instance_type,
)

학습된 모델은 대상 메트릭이 minmax인 평가 프로세스를 거칩니다. 현재 최고 LTV minmax 점수보다 큰 점수는 모델 등록 단계로 이어지고 LTV minmax 점수가 낮으면 현재 등록된 모델 버전이 업데이트되지 않습니다. 홀드아웃 테스트 데이터 세트에 대한 모델 평가는 SageMaker 처리 작업으로 구현됩니다.

평가 단계는 다음 코드로 정의됩니다.

step_eval = ProcessingStep( name=f"EvaluateLTVModel-{ds_version}", processor=script_eval, inputs=[ ProcessingInput( source=step_train.properties.ModelArtifacts.S3ModelArtifacts, destination="/opt/ml/processing/model", ), ProcessingInput( source=test, input_name='test', destination="/opt/ml/processing/test", ), ], outputs=[ ProcessingOutput(output_name="evaluation", source="/opt/ml/processing/evaluation"), ], code=os.path.join(BASE_DIR, "evaluate_weekly.py"), property_files=[evaluation_report], job_arguments=["--test-fname", os.path.basename(test)], )

모델 평가가 완료되면 평가 결과(minmax)를 기존 모델의 성능과 비교해야 합니다. 또 다른 파이프라인 단계를 정의합니다. step_cond.

필요한 모든 단계를 정의하면 다음 코드를 사용하여 ML 파이프라인을 구성하고 실행할 수 있습니다.

# training pipeline
training_pipeline = Pipeline( name=f'odin-ltv-{ds_version}', parameters=[ processing_instance_count, model_approval_status, dataset_version, train_data, test_data, output_path, batch_instance_types, model_metrics, best_ltv_minmax_score ], steps=[step_train, step_eval, step_cond]
) ### start execution
execution = training_pipeline.start( parameters=dict( DatasetVersion=ds_version, )
)

전체 워크플로는 추적 가능하고 다음에서 시각화됩니다. 아마존 세이지 메이커 스튜디오, 다음 그래프와 같이. ML 훈련 작업은 SageMaker Experiment에 의해 자동으로 추적되므로 각 훈련 작업의 ML 훈련 구성, 하이퍼파라미터, 데이터 세트 및 훈련된 모델을 찾을 수 있습니다. 각 모듈, 로그, 매개변수, 출력 등을 선택하여 자세히 살펴보십시오.

SaegMaker 파이프라인

자동화된 배치 추론

LTV 예측의 경우 예측된 LTV가 오프라인 다운스트림 작업에 정상적으로 사용되기 때문에 실시간 추론보다 배치 추론이 선호됩니다. 다단계 ETL을 통해 교육 데이터 세트에서 ML 기능을 생성하는 것처럼 LTV 예측 모델에 대한 입력으로 ML 기능을 생성해야 합니다. AWS Glue의 동일한 워크플로를 재사용하여 플레이어의 데이터를 ML 기능으로 변환하지만 데이터 분할 및 레이블 생성은 수행되지 않습니다. 결과 ML 기능은 지정된 S3 버킷에 저장되며 이 버킷은 AWS 람다 방아쇠. ML 기능 파일을 S3 버킷에 넣으면 Lambda 함수가 자동으로 실행되어 SageMaker 모델 레지스트리에 있는 승인된 최신 LTV 모델을 사용하여 SageMaker 일괄 변환 작업을 시작합니다. 배치 변환이 완료되면 각 플레이어의 출력 또는 예측 LTV 값이 S3 버킷에 저장되어 모든 다운스트림 작업에서 결과를 선택할 수 있습니다. 이 아키텍처는 다음 다이어그램에 설명되어 있습니다.

데이터 ETL 파이프라인

ETL 작업과 배치 추론을 결합하는 이 파이프라인을 통해 LTV 예측은 단순히 AWS Glue ETL 워크플로를 정기적으로(예: 일주일에 한 번 또는 한 달에 한 번) 실행하여 수행됩니다. AWS Glue 및 SageMaker는 기본 리소스를 관리합니다. 즉, 이 파이프라인에서는 리소스를 항상 실행 상태로 유지할 필요가 없습니다. 따라서 관리 서비스를 사용하는 이 아키텍처는 배치 작업에 비용 효율적입니다.

AWS CDK를 사용하여 배포 가능한 솔루션

ML 파이프라인 자체는 파이프라인을 사용하여 정의되고 실행되지만 데이터 파이프라인과 Lambda 함수를 포함한 ML 모델 추론 코드는 파이프라인의 범위를 벗어납니다. 이 솔루션을 다른 게임에 적용할 수 있도록 배포 가능하게 만들기 위해 AWS CDK를 사용하여 데이터 파이프라인 및 ML 모델 추론을 정의했습니다. 이러한 방식으로 엔지니어링 팀과 데이터 과학 팀은 AWS 관리 콘솔.

결론

이 게시물에서는 AWS Glue 및 SageMaker와 같은 관리형 서비스를 활용하여 자동화된 데이터 파이프라인 및 ML 파이프라인을 구축하여 데이터 드리프트 및 복잡한 ETL 문제를 해결할 수 있는 방법과 이를 확장 가능하고 반복 가능한 ML 솔루션으로 만드는 방법에 대해 논의했습니다. AWS CDK를 사용하는 다른 게임.

“이 시대에 게임은 단순한 콘텐츠 그 이상입니다. 그들은 사람들을 하나로 모으고 우리의 삶을 즐길 때 무한한 잠재력과 가치를 가지고 있습니다. 카카오게임즈는 누구나 쉽게 즐길 수 있는 게임으로 가득한 세상을 꿈꿉니다. 우리는 플레이어가 계속 플레이하고 커뮤니티를 통해 유대감을 형성하고 싶은 경험을 만들기 위해 노력합니다. MLSL 팀은 AutoML용 AutoGluon, MLOps용 Amazon SageMaker, 데이터 파이프라인용 AWS Glue를 사용하여 확장 가능한 LTV 예측 ML 솔루션을 구축하는 데 도움을 주었습니다. 이 솔루션은 데이터 또는 게임 변경에 대한 모델 재훈련을 자동화하고 AWS CDK를 통해 다른 게임에 쉽게 배포할 수 있습니다. 이 솔루션은 우리가 비즈니스 프로세스를 최적화하는 데 도움이 되므로 게임에서 앞서 나갈 수 있습니다.”

- 김수형 카카오게임즈 데이터분석연구소장.

SageMaker 및 AWS CDK의 관련 기능에 대해 자세히 알아보려면 다음을 확인하십시오.

Amazon ML 솔루션 랩

XNUMXD덴탈의 Amazon ML 솔루션 랩 팀을 ML 전문가와 연결하여 조직의 가장 가치 있는 ML 기회를 식별하고 구현하는 데 도움을 줍니다. 제품 및 프로세스에서 ML 사용을 가속화하려면 Amazon ML Solutions Lab에 문의하십시오.


저자에 관하여

김수형 카카오게임즈 Data Analytics Lab의 General Manager입니다. 그는 데이터 수집 및 분석, 특히 온라인 게임 경제에 대한 관심을 담당하고 있습니다.

김무현 Amazon Machine Learning Solutions Lab의 데이터 과학자입니다. 머신 러닝과 딥 러닝을 적용하여 고객의 다양한 비즈니스 문제를 해결하고 숙련도를 높일 수 있도록 도와줍니다.

셸던 리우 Amazon Machine Learning Solutions Lab의 데이터 과학자입니다. 확장 가능하고 신뢰할 수 있는 솔루션을 설계하는 숙련된 기계 학습 전문가로서 기업 고객과 협력하여 비즈니스 문제를 해결하고 효과적인 ML 솔루션을 제공합니다.

알렉스 치라 야스 Amazon ML Solutions Lab의 선임 기계 학습 엔지니어입니다. 그는 비즈니스 요구 사항을 해결하기 위해 AI 애플리케이션을 구축하기 위해 데이터 과학자 및 엔지니어 팀을 이끌고 있습니다.

문곤수, AWS의 AI/ML Specialist Solutions Architect는 고객과 협력하여 AWS AI/ML 서비스를 사용하여 ML 문제를 해결했습니다. 과거에는 제조업 분야에서 머신러닝 서비스를 개발한 경험과 포털 및 게임 업계에서 대규모 서비스 개발, 데이터 분석 및 시스템 개발 경험을 가지고 있었습니다. 여가 시간에 공수는 산책을 하고 아이들과 놀아요.

spot_img

최신 인텔리전스

spot_img