소셜 네트워크

AI

Amazon SageMaker Pipelines를 사용하여 ML 워크 플로 구축, 자동화, 관리 및 확장

화신

게재

on

우리는 최근에 발표했습니다 Amazon SageMaker 파이프 라인, 머신 러닝 (ML)을위한 용도로 구축 된 최초의 사용하기 쉬운 지속적 통합 및 지속적 전달 (CI / CD) 서비스입니다. SageMaker Pipelines는 기본 워크 플로우 오케스트레이션 도구 직접 활용하는 ML 파이프 라인 구축 아마존 세이지 메이커 완성. 파이프 라인, 모델 레지스트리, 프로젝트의 세 가지 구성 요소는 ML 워크 플로의 운영 복원력과 재현성을 향상시킵니다. 이러한 워크 플로 자동화 구성 요소를 사용하면 프로덕션 환경에서 수백 개의 모델을 구축, 교육, 테스트 및 배포하는 능력을 쉽게 확장하고, 더 빠르게 반복하고, 수동 오케스트레이션으로 인한 오류를 줄이고, 반복 가능한 메커니즘을 구축 할 수 있습니다.

SageMaker 프로젝트는 ML 개발 수명주기에 CI / CD 기능을 활성화하는 데 필요한 기본 리소스를 자동으로 프로비저닝하는 MLOps 템플릿을 도입합니다. 여러 가지를 사용할 수 있습니다. 기본 제공 템플릿 or 나만의 맞춤 템플릿 만들기. SageMaker Pipelines를 독립적으로 사용하여 자동화 된 워크 플로를 만들 수 있습니다. 그러나 SageMaker 프로젝트와 함께 사용하면 추가 CI / CD 기능이 자동으로 제공됩니다. 다음 스크린 샷은 SageMaker 파이프 라인의 세 가지 구성 요소가 예제 SageMaker 프로젝트에서 함께 작동하는 방법을 보여줍니다.

The following screenshot shows how the three components of SageMaker Pipelines can work together in an example SageMaker project.

이 게시물은 MLOps 템플릿을 사용하여 ML 프로젝트를 부트 스트랩하고 샘플 코드에서 CI / CD 패턴을 설정하는 데 중점을 둡니다. 기본 제공 빌드, 학습 및 배포 프로젝트 템플릿을 고객 이탈 분류 예제의 기반으로 사용하는 방법을 보여줍니다. 이 기본 템플릿을 사용하면 ML 모델 학습, 모델 아티팩트를 모델 레지스트리에 등록, 수동 승인 및 자동화 된 테스트로 모델 배포 자동화를위한 CI / CD를 사용할 수 있습니다.

모델 구축, 교육 및 배포를위한 MLOps 템플릿

이 빌드, 교육 및 배포 MLOps 템플릿이 시작될 때 어떤 AWS 서비스가 시작되는지 자세히 살펴 보는 것으로 시작합니다. 나중에 커스텀 사용 사례를 위해 스켈레톤을 수정하는 방법에 대해 설명합니다.

SageMaker 프로젝트를 시작하려면 먼저 아마존 세이지 메이커 스튜디오 콘솔. 이는 기존 사용자를 위해 또는 새 사용자를 만드는 동안 수행 할 수 있습니다. 자세한 내용은 프로젝트 사용에 필요한 SageMaker Studio 권한.

For more information, see SageMaker Studio Permissions Required to Use Projects.

SageMaker Studio에서 이제 프로젝트 메뉴에 구성 요소 및 레지스트리 메뉴를 선택합니다.

In SageMaker Studio, you can now choose the Projects menu on the Components and registries menu.

프로젝트 페이지에서 사전 구성된 SageMaker MLOps 템플릿을 시작할 수 있습니다. 이 게시물에서는 모델 구축, 교육 및 배포를위한 MLOps 템플릿.

On the projects page, you can launch a preconfigured SageMaker MLOps template.

이 템플릿을 시작하면 기본적으로 모델 빌드 파이프 라인이 시작되며 SageMaker Pipelines 자체를 사용하는 데는 비용이 들지 않지만 시작된 서비스에 대한 요금이 부과됩니다. 비용은 지역에 따라 다릅니다. 모델 빌드 파이프 라인의 단일 실행 us-east-1 $ 0.50 미만으로 추정됩니다. 배포 용으로 승인 된 모델에는 ml.m5.large 인스턴스를 사용하는 리전에 대한 SageMaker 엔드 포인트 (테스트 및 프로덕션) 비용이 발생합니다.

MLOps 템플릿에서 프로젝트가 생성되면 다음 아키텍처가 배포됩니다.

MLOps 템플릿에서 프로젝트가 생성되면 다음 아키텍처가 배포됩니다.

아키텍처에는 다음 AWS 서비스 및 리소스가 포함됩니다.

  • SageMaker 프로젝트를 통해 사용할 수있는 MLOps 템플릿은 AWS 서비스 카탈로그 사용자가 Studio 도메인에서 프로젝트를 활성화 할 때 자동으로 가져 오는 포트폴리오입니다.
  • 두 개의 저장소가 추가됩니다. AWS CodeCommit:
    • 첫 번째 저장소는 데이터 처리, 모델 학습, 모델 평가 및 정확도에 따른 조건부 모델 등록 단계를 포함하는 다단계 모델 구축 파이프 라인을 생성하기위한 스캐 폴딩 코드를 제공합니다. 보시다시피 pipeline.py 이 파이프 라인은 잘 알려진 XGBoost 알고리즘을 사용하여 선형 회귀 모델을 학습시킵니다. UCI Abalone 데이터 세트. 이 저장소에는 빌드 사양 파일에 의해 사용됨 AWS CodePipelineAWS CodeBuild 파이프 라인을 자동으로 실행합니다.
    • 두 번째 저장소에는 모델 배포를위한 코드 및 구성 파일과 품질 게이트를 통과하는 데 필요한 테스트 스크립트가 포함되어 있습니다. 이 리포지토리는 또한 CodePipeline 및 CodeBuild를 사용합니다. AWS CloudFormation 스테이징 및 프로덕션을위한 모델 엔드 포인트를 생성하기위한 템플릿.
  • 두 개의 CodePipeline 파이프 라인 :
    • 그리고, ModelBuild 파이프 라인은 새로운 커밋이 발생할 때마다 파이프 라인을 자동으로 트리거하고 실행합니다. ModelBuild CodeCommit 리포지토리.
    • 그리고, ModelDeploy 파이프 라인은 새 모델 버전이 모델 레지스트리에 추가되고 상태가 다음과 같이 표시 될 때마다 자동으로 트리거됩니다. Approved. 등록 된 모델 Pending or Rejected 상태는 배포되지 않습니다.
  • An 아마존 단순 스토리지 서비스 (Amazon S3) 버킷은 파이프 라인에서 생성 된 출력 모델 아티팩트에 대해 생성됩니다.
  • SageMaker Pipelines는 다음 리소스를 사용합니다.
    • 이 워크 플로에는 모델을 훈련하고 평가하는 방향성 비순환 그래프 (DAG)가 포함되어 있습니다. 파이프 라인의 각 단계는 계보를 추적하고 파이프 라인을 빠르게 재실행하기 위해 중간 단계를 캐시 할 수 있습니다. 템플릿 외부에서 다음을 수행 할 수도 있습니다. SDK를 사용하여 파이프 라인 생성.
    • SageMaker 파이프 라인 내에서 SageMaker 모델 레지스트리 생성 방법에 대한 계보 및 메타 데이터를 포함하여 모델 버전 및 각 아티팩트를 추적합니다. 다른 모델 버전은 모델 그룹 아래에 함께 그룹화되며 레지스트리에 등록 된 새 모델은 자동으로 버전이 지정됩니다. 모델 레지스트리는 또한 모델 버전에 대한 승인 워크 플로를 제공하고 다른 계정에 모델 배포를 지원합니다. 당신은 또한 수 boto3 패키지를 통해 모델 레지스트리 사용.
  • 두 개의 SageMaker 엔드 포인트 :
    • 모델이 레지스트리에서 승인되면 아티팩트가 스테이징 엔드 포인트에 자동으로 배치되고 수동 승인 단계가 이어집니다.
    • 승인되면 동일한 AWS 계정의 프로덕션 엔드 포인트에 배포됩니다.

교육 작업, 파이프 라인, 모델 및 엔드 포인트와 같은 모든 SageMaker 리소스와이 게시물에 나열된 AWS 리소스는 프로젝트 이름과 고유 한 프로젝트 ID 태그로 자동 태그 지정됩니다.

사용자 지정 사용 사례에 대한 샘플 코드 수정

프로젝트가 생성 된 후 앞에서 설명한 아키텍처가 배포되고 파이프 라인의 시각화가 파이프 라인 SageMaker Studio 내의 드롭 다운 메뉴.

이 시작된 템플릿에서 샘플 코드를 수정하려면 먼저 CodeCommit 리포지토리를 로컬 SageMaker Studio 인스턴스에 복제해야합니다. 프로젝트 목록에서 방금 생성 한 프로젝트를 선택합니다. 에 저장소 탭에서 하이퍼 링크를 선택하여 CodeCommit 리포지토리를 로컬로 복제 할 수 있습니다.

On the Repositories tab, you can select the hyperlinks to locally clone the CodeCommit repos.

ModelBuild 저장소

그리고, ModelBuild 리포지토리에는 모델 전처리, 학습 및 평가를위한 코드가 포함되어 있습니다. 샘플 코드는 모델을 학습하고 평가합니다. UCI Abalone 데이터 세트. 이러한 파일을 수정하여 자체 고객 이탈 사용 사례를 해결할 수 있습니다. 다음 코드를 참조하십시오.

|-- codebuild-buildspec.yml
|-- CONTRIBUTING.md
|-- pipelines
| |-- abalone
| | |-- evaluate.py
| | |-- __init__.py
| | |-- pipeline.py
| | |-- preprocess.py
| |-- get_pipeline_definition.py
| |-- __init__.py
| |-- run_pipeline.py
| |-- _utils.py
| |-- __version__.py
|-- README.md
|-- sagemaker-pipelines-project.ipynb
|-- setup.cfg
|-- setup.py
|-- tests
| -- test_pipelines.py
|-- tox.ini

이제 프로젝트에 액세스 할 수있는 데이터 세트가 필요합니다.

  1. Studio 내에서 새 SageMaker 노트북을 열고 다음 셀을 실행합니다.
    !wget http://dataminingconsultant.com/DKD2e_data_sets.zip
    !unzip -o DKD2e_data_sets.zip
    !mv "Data sets" Datasets import os
    import boto3
    import sagemaker
    prefix = 'sagemaker/DEMO-xgboost-churn'
    region = boto3.Session().region_name
    default_bucket = sagemaker.session.Session().default_bucket()
    role = sagemaker.get_execution_role() RawData = boto3.Session().resource('s3')
    .Bucket(default_bucket).Object(os.path.join(prefix, 'data/RawData.csv'))
    .upload_file('./Datasets/churn.txt') print(os.path.join("s3://",default_bucket, prefix, 'data/RawData.csv'))

  1. 전복 디렉토리의 이름을 다음으로 변경하십시오. customer_churn. 이를 위해서는 내부 경로를 수정해야합니다. codebuild-buildspec.yml 샘플 저장소에 표시된대로. 다음 코드를 참조하십시오.
    run-pipeline --module-name pipelines.customer-churn.pipeline 

  1. 교체 preprocess.py 고객 이탈 코드 샘플 저장소에있는 전처리 스크립트.
  2. 교체 pipeline.py 고객 이탈 코드 샘플 저장소에있는 파이프 라인 스크립트.
    1. "InputDataUrl”3 단계에서 얻은 Amazon S1 URL이 포함 된 기본 파라미터입니다.
      input_data = ParameterString( name="InputDataUrl", default_value=f"s3://YOUR_BUCKET/RawData.csv",
      )

    2. 분류 모델을 평가하기 위해 조건부 단계를 업데이트합니다.
      # Conditional step for evaluating model quality and branching execution
      cond_lte = ConditionGreaterThanOrEqualTo( left=JsonGet(step=step_eval, property_file=evaluation_report, json_path="binary_classification_metrics.accuracy.value"), right=0.8
      )

    마지막으로 주목할 것은 기본값입니다. ModelApprovalStatusPendingManualApproval. 모델의 정확도가 80 % 이상이면 모델 레지스트리에 추가되지만 수동 승인이 완료 될 때까지 배포되지 않습니다.

  1. 교체 evaluate.py 고객 이탈 코드 샘플 저장소에있는 평가 스크립트. 우리가 지적하고 싶은 코드 중 하나는 분류 모델을 평가하고 있기 때문에 평가하고 훈련 된 모델과 연결하는 메트릭을 업데이트해야한다는 것입니다.
    report_dict = { "binary_classification_metrics": { "accuracy": { "value": acc, "standard_deviation" : "NaN" }, "auc" : { "value" : roc_auc, "standard_deviation": "NaN" }, },
    } evaluation_output_path = '//zephyrnet.com/opt/ml/processing/evaluation/evaluation.json'
    with open(evaluation_output_path, 'w') as f: f.write(json.dumps(report_dict))

이러한 측정 항목의 JSON 구조는 다음 형식과 일치해야합니다. sagemaker.model_metrics 모델 레지스트리와의 완전한 통합을 위해. 

ModelDeploy 저장소

그리고, ModelDeploy 리포지토리에는 배포 파이프 라인에 대한 AWS CloudFormation 빌드 사양이 포함되어 있습니다. 이 코드는 고객 이탈 사용 사례에 충분하므로 수정하지 않습니다. 이 저장소에 모델 테스트를 추가하여 모델 배포를 게이트 할 수 있다는 점은 주목할 가치가 있습니다. 다음 코드를 참조하십시오.

├── build.py
├── buildspec.yml
├── endpoint-config-template.yml
├── prod-config.json
├── README.md
├── staging-config.json
└── test ├── buildspec.yml └── test.py

파이프 라인 실행 트리거

이러한 변경 사항을 CodeCommit 리포지토리 (Studio 소스 제어 탭에서 쉽게 수행)에 커밋하면 새 파이프 라인 실행이 트리거됩니다. 아마존 이벤트 브리지 커밋을위한 이벤트 모니터. 잠시 후 SageMaker 프로젝트 내에서 파이프 라인을 선택하여 실행을 모니터링 할 수 있습니다.

After a few moments, we can monitor the run by choosing the pipeline inside the SageMaker project. 다음 스크린 샷은 파이프 라인 세부 정보를 보여줍니다.다음 스크린 샷은 파이프 라인 세부 정보를 보여줍니다. 파이프 라인 실행을 선택하면 모니터링 할 수있는 파이프 라인의 단계가 표시됩니다.

파이프 라인 실행을 선택하면 모니터링 할 수있는 파이프 라인의 단계가 표시됩니다.

파이프 라인이 완료되면 다음으로 이동할 수 있습니다. 모델 그룹 SageMaker 프로젝트 내에서 탭하고 모델 아티팩트에 연결된 메타 데이터를 검사합니다.

When the pipeline is complete, you can go to the Model groups tab inside the SageMaker project and inspect the metadata attached to the model artifacts.

모든 것이 좋아 보이면 모델을 수동으로 승인 할 수 있습니다.

This approval triggers the ModelDeploy pipeline and exposes an endpoint for real-time inference.

이 승인은 ModelDeploy 실시간 추론을 위해 엔드 포인트를 노출합니다.

This approval triggers the ModelDeploy pipeline and exposes an endpoint for real-time inference. 

결론

SageMaker Pipelines를 통해 팀은 ML 워크 플로 내에서 모범 사례 CI / CD 방법을 활용할 수 있습니다. 이 게시물에서는 데이터 과학자가 자체 모델링 사용 사례에 맞게 미리 구성된 MLOps 템플릿을 수정하는 방법을 보여주었습니다. 많은 이점 중 하나는 소스 코드의 변경 사항을 추적 할 수 있고, 관련 메타 데이터를 배포 승인을 위해 훈련 된 모델에 연결할 수 있으며, 반복되는 파이프 라인 단계를 캐시하여 재사용 할 수 있다는 것입니다. SageMaker 파이프 라인에 대해 자세히 알아 보려면 웹 사이트 그리고 선적 서류 비치. 지금 자신의 워크 플로에서 SageMaker Pipelines를 사용해보십시오.


저자에 관하여

션 모건션 모건 AWS의 AI / ML 솔루션 아키텍트입니다. 그는 이전에 반도체 산업에서 일하면서 컴퓨터 비전을 사용하여 제품 수율을 개선했습니다. 그는 나중에 DoD 연구소로 옮겨 적대적 ML 방어 및 네트워크 보안을 전문으로했습니다. 여가 시간에 Sean은 적극적인 오픈 소스 기고자 및 유지 관리자이며 TensorFlow Addons의 특별 이익 그룹 책임자입니다.

Hallie CrosbyHallie Weishahn MLOps에 대한 선도적 인 글로벌 표준에 중점을 둔 AWS의 AI / ML 전문가 솔루션 아키텍트입니다. 이전에는 Google Cloud Platform에서 ML 전문가로 일했습니다. 그녀는 제품, 엔지니어링 및 주요 고객과 협력하여 반복 가능한 아키텍처를 구축하고 제품 로드맵을 주도합니다. 그녀는 기계 학습 사용 사례 및 기술을 발전시키고 확장하기위한 지침과 실무 작업을 제공합니다. PoC에서 전체 배포로 통합 할 수 있도록 주요 문제를 해결하고 기존 아키텍처를 평가하는 것이 그녀의 강점입니다.

Shelbee EigenbrodeShelbee Eigenbrode AWS의 AI / ML Specialist Solutions Architect입니다. 그녀의 현재 깊이 영역에는 ML / AI와 결합 된 DevOps가 포함됩니다. 그녀는 23 년 동안 기술 분야에 종사했으며 다양한 역할과 기술을 담당했습니다. 다양한 기술 영역에서 35 개가 넘는 특허가 부여 된 그녀의 지속적인 혁신에 대한 열정과 모든 데이터에 대한 애정이 그녀의 초점을 데이터 과학 분야로 전환했습니다. 그녀의 현재 열정은 데이터, DevOps 및 기계 학습에 대한 배경을 결합하여 고객이 데이터 과학을 수용 할뿐만 아니라 MLOps 관행을 채택하여 모든 모델이 생산 경로를 갖출 수 있도록 돕고 있습니다. 여가 시간에는 모피 가족 (일명 개) 및 친구를 포함한 가족과 함께 책을 읽고 시간을 보내는 것을 즐깁니다.

출처 : https://aws.amazon.com/blogs/machine-learning/building-automating-managing-and-scaling-ml-workflows-using-amazon-sagemaker-pipelines/

AI

Alexa는 대부분의 작업을 Amazon에서 구축 한 칩으로 이동합니다.

화신

게재

on

타판 차우 한

알렉사 대부분의 활동을 Inferentia CPU 에 의해 전달 아마존. 멀어지는 움직임 Nvidia 칩 에 의해 활용 알렉사 최근에는 조직에서 지적한 바와 같이 음성 비서의 속도를 높이고 에너지 요청을 줄이는 동시에 Amazon에 목소리 동무.

Nvidia의 칩은 Alexa의 초점 터미널로 사용되었습니다. 이 칩은 Alexa 클라이언트의 문의 및 주문을 클라우드의 Amazon Web Services 서버 팜으로 전달하고 텍스트의 반응을 담론으로 순환시킵니다. 현재 Inferentia 칩이 그 역할을 맡을 것입니다.

그들은 언어와 그림을 인식하고 적절한 반응을 생성하는 것과 같은 Alexa의 많은 작업을 포함하는 AI 할당을 위해 명시 적으로 제조되었습니다.

Alexa와 함께 Inferentia 칩은 현재 다음과 같은 얼굴 인식에 활용 될 것입니다. 인식력. 맞춤형 칩을 만드는 데 초점을 맞춘 목표는 현재 모델과 달리 Alexa의 속도와 생산성을 향상시키는 것이 었습니다.

새로운 칩에 의해 보장되는 Alexa 로의 업그레이드에는 클라우드와의 정보 이동이 포함됩니다. XNUMX 년 전에 아마존이 등장한 저전력 알렉사 변형을 암시합니다. 가제트가 아닌 클라우드에 전체 준비 작업, 절삭력 및 메모리 전제 조건을 엄청나게 배치하여 일반적으로 핸들링 능력을 크게 지원할 수없는 조명과 같은 광범위한 간단한 장치에 Alexa를 추가 할 수 있습니다. 어쨌든 클라우드에 대한 의존도는 음성을 유지하기위한 칩을 제공하는 조직의 지속적인 상승과는 다릅니다. AI 가제트에 대한 절차.

예를 들어, Speech 기술 엔지니어 Sensory는 클라우드 요구 사항이없는 스마트 홈 머신에 대해 조정 가능한 음성 파트너를 명시 적으로 제공합니다. 유형도 마찬가지로 새로운 등장 VoiceHub 단계를 매끄럽게하고 해당 가젯에 대한 사용자 정의 깨우기 단어를 만듭니다. 유사한 하이라이트는 Picovoice AI 스테이지와 ID R & D의 보컬 구별 증명 모터에 필수적이며, 이는 정보 전달을 기대하지 않고 장치에 보컬 보안을 추가합니다. 따라서 기술 괴물은 불안한 프레임 워크에 국한되지 않습니다. 수많은 Alexa 또는 구글 지원-empower 가젯은 Aspinity의 간단한 깨우기 단어 식별자, iOS 및 Android 애플리케이션을위한 Sensory의 TrulyHandsfree 음성 인식 프로그래밍 또는 Knowles의 Amazon이 승인 한 Alexa 헤드셋 고급 팩과 같은 에지 구성 요소를 기억합니다.

Nvidia 및 기타 헌신적 인 칩 제작자를 클라우드 또는 다른 것없이 내부 결정으로 대체하기를 희망하는 것은 아마존 만이 아닙니다.

구글은 누구나 아는 한, 픽셀 휴대폰과 크롬 북 PC를위한 프로세서, 아마도 화이트 채플을 계획하기 위해 삼성과 협력하고있다. 이 칩은 Google Assistant가 두 가지 종류의 가젯에서 더 나은 성능을 발휘하도록합니다.

새로운 칩은 퀄컴-현재 사용되고있는 구조. Google은 Google Assistant의 용량에 새로운 개선 사항을 안정적으로 추가하고 장비 재 설계가 제품과 함께 진행될 것으로 예상됩니다. 맞춤형 칩은 더 광범위하게 사용하는 것보다 더 나은 방식으로 이러한 요구를 채울 수 있습니다.

애플도 마찬가지로 내부에서 칩을 찾기 시작했다. 이 조직은 또한 일반적인 공범자 인 인텔 대신 만든 칩을 사용하여 최신 Mac PC 제품군을 사내에 도입했습니다. 애플은 아마 아마존의 새로운 칩이 간과하는 엣지 핸들링에 대한 강조와 함께 칩을 통해 시리의 효율성과 속도를 향상시킬 계획이다. 그것은 애플이 엣지 기반 인간이 만든 추론 스타트 업을 확보 한 이유에 대해 중요 할 수 있습니다. Xnor.ai 200 월에 공개 된 XNUMX 억 달러. Xnor의 저전력 AI 혁신은 클라우드없이 일관되게 실행되도록 설계되었으며, 이는보다 생산적이고 빠른 활동을 의미합니다.

Source: https://chatbotslife.com/alexa-moves-most-operations-to-amazon-built-chips-ec73b445e202?source=rss—-a49517e4c30b—4

계속 읽기

AI

모든 사람들이 웹 사이트 용 챗봇에 대해 이야기하는 이유는 무엇입니까?

화신

게재

on

봇 펭귄

“전 세계적으로 채팅 봇 웹 사이트의 경우 디지털 시장 현장에서 가장 큰 기술 파괴자로 간주됩니다. 모든 지원 팀, 디지털 비즈니스, 컨택 센터 등에서 일어나는 모든 뜨거운 토론이나 토론에서 토론 주제입니다. "

그들의 모든 효용과 힘과는 별도로, 그들은 마음에 많은 질문과 오해를 일으켰습니다. 웹 사이트 주변의 모든 소문과 함께 채팅 봇, 꽤 이해할 수 있습니다. 여기에서이 블로그를 통해 혼란을 명확히하고 디지털 시장에서이 새로운 기술의 정확한 위치를 알려 드리겠습니다.

A chatbot For Website는 점점 더 많은 고객 서비스 요청 또는 문의를 능숙하게 처리 할 수 ​​있습니다. 중소기업의 경우 웹 사이트를위한 무료 챗봇 참여, 가용성 및 완화를위한 이상적인 솔루션입니다. 그들은 아무런 방해없이 온라인 사용자를 연중 무휴로 지원하거나 안내하기 위해 정기적이고 일관되게 운영됩니다.

계속 진행하기 전에 몇 가지 심층적 인 챗봇 통계를 살펴 보겠습니다.

  1. 의료, 교육, 여행 및 부동산 산업과 같은 여러 산업이 잡담.
  2. Outgrow는 약 80 %의 기업이 2021 년까지 일부 봇 시스템을 통합 할 것으로 예상합니다.
  3. 웹 사이트 챗봇은 기업이 고객 지원 비용의 최대 30 %를 절약 할 수 있도록 도와줍니다.
  4. 챗봇 잡지 보고서에 따르면 웹 사이트의 챗봇은 밀레 니얼 세대와 베이비 붐 세대 사이에서 인기가 있습니다.
  5. Outgrow는 시장 가치가 약 703 억 XNUMX 천만 달러라고 추정했습니다.
  6. 오라클 보고서에 따르면 고객의 50 %는 기업이 연중 무휴 24 시간 운영 될 것으로 예상합니다.
  7. 또한 Venture Beat는 Facebook Messenger에서 좋은 300,00 만 활성 웹 사이트 챗봇을 제안합니다.
  8. Intellectyx는 2024 년까지 예상 시장 규모가 1.3 억 달러 이상인 웹 사이트의 챗봇이 기업 브랜드의 원동력이 될 것이라고 말했습니다.

웹 사이트 용 무료 챗봇 애플리케이션은 특히 소비자 대상 상품 및 서비스에서 증가하고 있습니다.

수치에 대해 이야기하면 Business Insider 보고서 중 하나에 따르면 미국 백만장 자의 59 %와 X 세대의 60 % 이상이 챗봇 플랫폼을 통해 브랜드 또는 비즈니스와 상호 작용했습니다.

Facebook 설문 조사에 따르면 소비자의 50 % 이상이 유선 라이브 채팅 인터페이스 또는 챗봇의 웹 사이트를 연결할 수있는 웹 사이트에서 구매할 가능성이 더 높다고 말합니다.

사실과 수치는 미래가 얼마나 밝은지를 분명히 보여줍니다. 챗봇 플랫폼은 디지털 마켓 플레이스에서 살아 남기 위해 필수 아이템 중 하나입니다. 또한 챗봇 플랫폼과 웹 사이트 서비스를위한 무료 챗봇의 증가로 인해 소규모 및 신생 스타트 업도 더 쉽게 접근 할 수 있습니다.

Gartner는 2020 년까지 브랜드 참여의 85 %가 인간의 상호 작용없이 이루어질 것이라고 제안합니다. 대신 웹 사이트에 챗봇을 사용할 것입니다.

일반적으로 현대 고객은 팁에 대한 모든 정보를 원하고 아무것도 기다리지 않기를 원합니다. 따라서 눈 깜짝 할 사이에 관련 정보를 제공 할 수 있다면 개인 즐겨 찾기에 들어갈 수 있습니다.

반면에 전통적인 방식으로 고객 지원 서비스는 판매를 잃거나 잠재적 인 고객을 잃게 할 수 있습니다.

따라서 웹 사이트에 대한 무료 챗봇 채택이 증가함에 따라 이러한 제한을 완화하고 사용자 경험을 개선 할 수 있습니다.

A 웹 사이트 용 챗봇 원활한 고객 서비스 및 기타 수단과 조건을 제공하기 위해 기업이 통합하고 있습니다. 자, 조금 더 다이빙합시다!

네, 확실히 더 나은 사용자 경험은 더 나은 생산성과 더 많은 수익을 가져올 것입니다. 웹 사이트 챗봇.

운영 비용 절감!

웹 사이트 용 챗봇이 어떻게 비용을 줄이고 실행 가능한 솔루션으로 밝혀 졌는지 궁금 할 것입니다.

여기에 답이 있습니다. 웹 사이트 챗봇은 고객 질문에 답하고 브랜드에 대한 정보를 제공하는 등 가장 중요하고 시간이 많이 걸리는 네 가지 직무 역할을 도와줍니다. 따라서 일선 지원 작업을 효율적으로 수행 할 수 있습니다.

예를 들어, 사용자가 전달 정책을 알고 싶거나 특정 작업을 실행하는 방법을 알고 자하는 경우입니다. 챗봇 플랫폼은이 모든 것을 안내 할 수 있습니다.

즉, 이러한 영역은 사람의 개입없이 처리 할 수 ​​있으며 팀을 고용하고 동일한 작업을 실행하는 데 드는 비용과 시간을 줄일 수 있습니다. 웹 사이트 (블로그 링크, 봇 구축 비용)에 가장 적합한 무료 챗봇을 보유하고 실제로 추가 비용을 줄일 수 있습니다.

또한 브랜드 또는 비즈니스의 생산성을 높이는 데 중요한 역할을합니다. 다른 영업 팀과 비교할 때 웹 사이트 용 챗봇은 브랜드가 고객을 확보하거나 더 쉽고 빠르게 리드를 확보하는 데 도움이 될 수 있습니다. 또한 즉시 거래를 성사시키기 위해 추가로 육성해야하는 자격있는 리드를 얻을 수 있습니다. 대부분의 경우 웹 사이트 챗봇은 음식 주문, 약속 일정 잡기 등을위한 챗봇 플랫폼과 같이 자체적으로 거래를 성사시킬 수있는 수준입니다.

이것은 초기 대화를 자동화하는 것이 확장 성이 뛰어나고 방해받지 않고 관심있는 사용자를 자격을 부여한다는 것을 보여줍니다. 웹 사이트 용 무료 챗봇은 제품 및 서비스와 같이 고객이 원하는 모든 것을 지원할 수 있습니다.

가장 중요한 부분은 여기에 있습니다. 챗봇 애플리케이션은 거의 모든 산업 분야에서 유효합니다. 비즈니스는 의심 할 여지없이 새로운 기회를 따라 잡고 성장하고 있습니다.

웹 사이트 챗봇은 많은 이점을 가지고 있으며 각 사업 단위를 더 큰 규모로이 끕니다. (챗봇의 장점)

그것은 팁과 중요한 것들 중 하나에 가깝습니다. 웹 사이트에서 챗봇을 구현하기위한 경로를 어디로 가든지, 그들이 산업 및 역할에 따라 다르다는 것을 알아야합니다. 현재 시대에는 원 사이즈가 없습니다. 계속....

Source: https://chatbotslife.com/why-is-everyone-talking-about-chatbot-for-website-a936653ffe78?source=rss—-a49517e4c30b—4

계속 읽기

AI

대화 형 챗봇의 베타 버전을 만드는 간단한 단계

화신

게재

on

가우 라브 싱

최근에 작업이 할당되었습니다. chatbot 내가 취급하는 제품 중 하나에 대한 기능. 다양한 이해 관계자의 의견을 수렴하는 방법론을 도출하는 데 도움이 된 영업 및 마케팅 분야의 과거 경험에서 비즈니스 및 소비자 통찰력을 얻었습니다. 도출 된 추론은 지능이 풍부했고, 봇을 만드는 데에는 다각적 인 심리학이 많이 관련되어 있습니다. 이 창작물에서 답을 얻을 가장 중요한 대답은 잡담 제대로 구현되면 비즈니스주기에 영향을 미치고 조직의 수익을 크게 높일 수 있습니다.

대화의 세 가지 중요한 측면 chatbot 얻는 것입니다

1. 심리학

2. 대화 카피

3. 기술

제품과 동기화하여 구현됩니다. 봇을 개발하는 동안 가장 중요한 측면은 소비자의 심리를 이해하는 것이므로 세 가지 측면은 오름차순으로 분류됩니다. 소비자로부터 입력을 받아 대화에 대한 집합 흐름을 정의하는 다양한 방법이 있습니다.

1. 사례 연구 : 약속 예약 챗봇 구축

2. IBM Watson Assistant는 공개 된 연구에 따르면 다른 상용 제품보다 더 나은 의도 분류를 제공합니다.

3. 대화 형 AI 테스트

4. 지능적이고 자동화 된 대화 시스템이 B2C 수익과 성장을 주도하는 방법.

기술은 대화 사본만큼 중요하지만 마지막 섹션에 보관됩니다. 대화를 미리 볼 수있는 많은 도구를 사용하여 사용자의 권한으로 여정을 진행하는 데 도움이됩니다. 사용자의 적절한 의사 소통과 사용자 여정 매핑없이 봇에서 활동 채널을 갖는 것은 본질적으로 사용되는 최고의 기술에 관계없이 무너질 것입니다.

대화를 미리 볼 수있는 몇 가지 도구가 아래에 나와 있습니다.

  1. Botpreview — https://botpreview.com/

2. Botmock — https://botmock.com

3. 봇 소사이어티 — https://app.botsociety.io

4. 봇 프레임 — https://botframe.com

Source: https://chatbotslife.com/simple-steps-to-create-a-beta-version-of-conversational-chatbot-ae5c05836e4d?source=rss—-a49517e4c30b—4

계속 읽기

AI

Otter.ai, AI 전사를 위해 50 천만 달러 모금

화신

게재

on

AI 전사 시작 Otter.ai 오늘은 컨버터블 어음 50 만 달러를 포함하고 Spectrum Equity가 주도하는 시리즈 B 라운드에서 10 천만 달러를 모금했다고 발표했습니다. 이 자금으로이 회사는 AI, 딥 러닝, 자연어 처리, 프런트 엔드 및 백엔드 엔지니어링, 리더십 팀을 고용함에 따라 내년에 직원 수를 세 배로 늘릴 계획입니다.

경쟁이 부족하지 않습니다. 오디오 전사 시장, 이는 31.82 년까지 2025 억 XNUMX 천만 달러의 가치가있을 것으로 추정됩니다.하지만 Otter.ai (이전 AISense)는 음성-텍스트 서비스를 제공하는 스타트 업입니다. 수달, 설립 이래 800 년 동안 자체적으로 틈새 시장을 개척했습니다. Otter가 2020 개 이상의 국가에서 채택됨에 따라 회사의 수익은 230 년에 100 % 급증했습니다. 그리고 회사는 현재까지 3 억 분에 걸쳐 XNUMX 억 건 이상의 회의를 기록했다고 말합니다.

Otter.ai는 2016 년 CEO Sam Liang과 엔지니어링 부사장 Yun Fu에 의해 설립되었습니다. Liang은 Google지도 앱에서 "파란색 점"을 개발하고 2013 년 Alibaba가 인수 한 모바일 스타트 업 Alohar를 출시 한 Google 위치 팀을 이끌었습니다.

Google, Yahoo, Facebook, MIT, Stanford, Duke 및 Cambridge의 팀이 개발 한 Otter.ai의 핵심 기술은 대화에 최적화되어 있습니다. 분할이라는 기술을 사용하여 화자를 구별 할 수 있으며 각 사람의 목소리에 대해 고유 한 인쇄물을 생성합니다. 전사는 클라우드에서 처리되며 웹, Dropbox 또는 iOS 및 Android 장치 용 Otter.ai의 모바일 앱에서 사용할 수 있습니다. 여기에서 가장 많이 사용되는 용어를 추적하는 각 녹음의 상단에있는 단어 구름을 통해 검색, 복사 및 붙여 넣기, 스크롤, 편집 및 공유 할 수 있습니다.

"Otter의 높은 정확도는 앱이 '학습'할 수 있도록하는 알고리즘의 결과입니다."라고 대변인은 VentureBeat에 말했습니다. “초기에는 특히 미국 내 지역에서 다양한 억양을 사용하는 영어 사용자에게 초점을 맞추 었으며 Liang 및 지구상의 수십억 명의 영어 사용자와 같은 억양을 처리하도록 최적화되었습니다. Liang은 자연어 처리 시스템이 악센트를 이해하지 못한다는 사실에 항상 실망했습니다.”

Otter.ai는 Microsoft 365, 참석자의 얼굴 인식, 음성을 텍스트로 자동 변환하는 등 AI 기반 기능을 사용하여 라이브 이벤트를 주최 할 수있을뿐만 아니라 시스코 및 신생 기업 Voicera버빗, Trint, Simon Says 및 Scribie. 그러나 Otter.ai는 경쟁력있는 가격으로 서비스를 차별화하려고합니다. Otter Pro는 월 $ 8.33부터 시작하여 월 $ 20 인 회사의 비즈니스 계층보다 약간 더 비쌉니다. Otter.ai는 또한 월 600 분의 트랜스 크립 션과 무제한 클라우드 스토리지가 포함 된 무료 요금제를 제공합니다.

AiSense 수달

Otter.ai는 최근 Otter를 교육 시장에 도입했습니다. 교육용 수달,이를 통해 강사는 녹음 된 성적표에 대한 액세스를 제어하고 학생 장애 서비스 및 접근성 기술을 보완합니다. Otter.ai 더 최근 출시 팀을위한 수달, 계정 관리, 프로비저닝,보고 및 기타 기능을 통해 중소기업의 요구 사항을 충족하도록 설계된 구독 솔루션입니다. 올 여름 Otter.ai는 Otter의 자연어 처리 기술을 사용하여 이벤트 대화를 캡처하고 실시간으로 스크립트로 변환하는 서비스 인 Otter for Events를 선보였습니다.

Otter.ai는 Zoom 및 Google Meet 용 플러그인을 제공하여 참가자가 회의에 대한 라이브 캡션을받은 후 대화 내용을 볼 수 있도록합니다. Otter.ai가 제공하는 Otter Live Notes의 일부로, 참가자가 화상 회의에서 직접 또는 회의 후에 대화 내용을 열 수 있습니다. Otter Live Notes를 사용하면 Otter Voice Meeting Notes에서 사용할 수있는 동일한 실시간 기능 중 일부에 액세스 할 수 있으며, 이는 화상 회의 플랫폼에서 직접 시작할 수 있습니다.

Otter를 시험 사용했거나 적극적으로 사용하고있는 조직의 목록에는 캘리포니아 주립 대학, 컬럼비아 대학 및 워릭 비즈니스 스쿨이 포함됩니다. Otter.ai는 수백만 명의 사용자가 있다고 주장하며 전염병이 계속해서 성장을 촉진 할 것으로 예상합니다.

Lian은 이메일을 통해 VentureBeat에“원격 및 하이브리드 작업이 여기에 남아있는 추세라는 것이 날이 갈수록 더 분명 해지고 있습니다. "결과적으로 우리는 생산성 및 공동 작업 도구를 사용하여이 새로운 가상 세계에 참여하는 모든 사람이 회의를보다 생산적으로 수행 할 수 있도록 회의를 재고해야합니다."

Beyond Spectrum, Horizons Ventures, Draper Associates, GGV Ventures 및 Draper Dragon Fund는 Otter.ai의 최신 펀딩 라운드에 참여했습니다. 그것은 캘리포니아에 기반을 둔 회사의 Lost Altos를 가져옵니다. 총 모금 현재까지 63 억 달러 이상이되었습니다.

VentureBeat

VentureBeat의 사명은 기술 의사 결정권자가 혁신적인 기술과 거래에 대한 지식을 습득 할 수있는 디지털 타운 스퀘어가되는 것입니다. 당사 사이트는 데이터 기술 및 전략에 대한 필수 정보를 제공하여 조직을 이끌 때 안내합니다. 다음에 액세스 할 수 있도록 커뮤니티의 일원이되도록 귀하를 초대합니다.

  • 관심있는 주제에 대한 최신 정보
  • 뉴스 레터
  • 통제 된 사고 리더 콘텐츠 및 Transform과 같은 소중한 이벤트에 대한 할인 된 액세스
  • 네트워킹 기능 등

회원 가입

출처 : https://venturebeat.com/2021/02/25/otter-ai-raises-50-million-for-its-ai-transcription-service/

계속 읽기
블록체인5 일 전

VeChain 검토 : 블록 체인 공급망 관리

Amb Crypto5 일 전

Litecoin 가격 분석 : 20 월 XNUMX 일

PR 뉴스 와이어4 일 전

S3 AeroDefense, Honeywell Aerospace와 10 년 유통 계약 및 수리 라이센스 체결

Amb Crypto5 일 전

MicroStrategy 및 기타 기관이 Bitcoin 구매를 후회하지 않는 이유

Amb Crypto5 일 전

Bitcoin의 소매 채택이 $ 55,000에 도전하는 이유

자동차5 일 전

Tesla의 Gigafactory 공식은 Fremont Factory의 겸손한 "텐트"에서 시작되었습니다.

Amb Crypto5 일 전

비트 코인의 장기 호 들러가 판매자의 시장에 진입하고 있습니까?

Amb Crypto5 일 전

Polkadot, Cosmos, IOTA 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

Chainlink, Aave, SushiSwap 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

Bitcoin의 가격이 62968 월 목표 인 $ XNUMX보다 XNUMX 주 빠른 이유

Amb Crypto5 일 전

바이 낸스 코인, Tron, FTX 토큰 가격 분석 : 20 월 XNUMX 일

Amb Crypto4 일 전

Ethereum, Uniswap, Dogecoin 가격 분석 : 21 월 XNUMX 일

자동차4 일 전

SpaceX Starship은 이번 주 후반에 세 번째가 매력인지 알아낼 준비가되었습니다.

블록체인3 일 전

UAE의 까르푸 쇼핑객이 블록 체인 기술을 사용하여 Farm-to-Shelf 정보를 얻습니다.

QEC 코드의 하드웨어 구현을 제안했습니다. 회로는 빨간색으로 강조 표시된 자이 레이터로 연결된 두 개의 Josephson 접합으로 구성됩니다. CREDIT M. Rymarz et al., Phys Rev X (2021), https://doi.org/10.1103/PhysRevX.11.011032(CC BY 4.0)
나노 기술4 일 전

내결함성 큐 비트를위한 청사진 : Forschungszentrum Jülich 및 RWTH Aachen University의 과학자들은 일반적인 오류로부터 자연스럽게 보호되는 양자 컴퓨터 용 회로를 설계했습니다.

QEC 코드의 하드웨어 구현을 제안했습니다. 회로는 빨간색으로 강조 표시된 자이 레이터로 연결된 두 개의 Josephson 접합으로 구성됩니다. CREDIT M. Rymarz et al., Phys Rev X (2021), https://doi.org/10.1103/PhysRevX.11.011032(CC BY 4.0)
나노 기술4 일 전

내결함성 큐 비트를위한 청사진 : Forschungszentrum Jülich 및 RWTH Aachen University의 과학자들은 일반적인 오류로부터 자연스럽게 보호되는 양자 컴퓨터 용 회로를 설계했습니다.

QEC 코드의 하드웨어 구현을 제안했습니다. 회로는 빨간색으로 강조 표시된 자이 레이터로 연결된 두 개의 Josephson 접합으로 구성됩니다. CREDIT M. Rymarz et al., Phys Rev X (2021), https://doi.org/10.1103/PhysRevX.11.011032(CC BY 4.0)
나노 기술4 일 전

내결함성 큐 비트를위한 청사진 : Forschungszentrum Jülich 및 RWTH Aachen University의 과학자들은 일반적인 오류로부터 자연스럽게 보호되는 양자 컴퓨터 용 회로를 설계했습니다.

PR 뉴스 와이어3 일 전

국제 HPV 인식의 날 서밋

PR 뉴스 와이어3 일 전

1.81 년까지 2027 억 달러 규모의 항응고제 역전 약물 시장 규모 : Grand View Research, Inc.

QEC 코드의 하드웨어 구현을 제안했습니다. 회로는 빨간색으로 강조 표시된 자이 레이터로 연결된 두 개의 Josephson 접합으로 구성됩니다. CREDIT M. Rymarz et al., Phys Rev X (2021), https://doi.org/10.1103/PhysRevX.11.011032(CC BY 4.0)
나노 기술3 일 전

내결함성 큐 비트를위한 청사진 : Forschungszentrum Jülich 및 RWTH Aachen University의 과학자들은 일반적인 오류로부터 자연스럽게 보호되는 양자 컴퓨터 용 회로를 설계했습니다.

인기순