소셜 네트워크

AI

Resemble AI는 이제 음성을 복제하여 새로운 언어를 말할 수 있습니다.

화신

게재

on

처럼 보이는 AI 무시할 수있는 정보로 제작 된 음성 프로필을 생성하기위한 무대를 구축하여 개인의 음성 XNUMX 분을 가상으로 AI 다른 계정처럼 고객이 필요로하는 모든 것을 말할 수 있습니다. 일반적으로 음성 조수 또는 상대 플랫폼은 누군가가 말하는 것을 다른 언어로 해석 할 수있는 옵션이있을 수 있습니다. 그러나 현재는 표준 가짜 음성을 사용합니다. 영어로 문장을 말할 수 있다는 목표로 가짜 음성 생성기에 해석 레이어를 제한하십시오. 그 시점에서 잠시 후 자신의 목소리가 프랑스어로 말하는 것을 들어보세요.

게시물 이미지

Resemble CEO 인 Zohaib Ahmed는 회의에서“우리는 글로벌하고 방언 해독에 매우 열성적인 수많은 고객을 보유하고 있습니다. “우리는 다양한 방언으로 다양한 목소리를 만들기 시작했습니다. 그러나 우리는 스페인어로 된 한 문장에서 Burger King과 유사하게 다른 방언으로 나타나는 영어 단어로 테스트를 받았습니다. 버거 킹은 영어입니다. 스페인어 발음 일 필요는 없습니다. 그래서 우리는이 유용성을 찾기 시작했습니다.”

Ahmed는 음성 능력 해석이 일반적으로 몇 달이 걸리고 엄청난 비용이 든다고 설명했습니다. 해석이 필요하지만 이러한 변수 중 하나가 필요한 개인에게는 Localize 하이라이트가 매력적일 수 있습니다. 현재 Resemble은 영어, 프랑스어, 독일어, 네덜란드어, 이탈리아어 및 스페인어를 해독 할 수 있습니다. 아흐메드는 일본어, 한국어, 북경어와 함께 다른 방언이 진행 중이라고 말했다. 해석은 하나의 언어로 엔지니어링 된 음성을 구성하는 것보다 더 많은 사운드 정보가 필요한지 여부에 관계없이 현재 단계의 보강으로 채워져 문제를 더욱 재정렬합니다.

1. 유럽 Facebook 페이지의 메신저 규칙이 변경되고 있습니다. 알아야 할 사항은 다음과 같습니다.

2. 이것이 챗봇 비즈니스가 죽어가는 이유입니다

3. Facebook, Kustomer 인수 : 챗봇 비즈니스의 종말?

4. 성공적인 챗봇의 XNUMX 가지 P

가짜 목소리를 해독하는 것은 Resemble이 기반에 집중 한 것과 동일한 비즈니스에 중요합니다. 아흐메드는 정확하게 언론 매체에 흥미를 가져야한다고 말했다. 근처 방언을 포함한다는 것은 영화 나 게임이 첫 번째 연예인의 목소리로 명명 될 수 있음을 의미하며, 다른 방언에 능숙해질 것으로 기대하지 않고 그들의 목소리의 풍미를 유지합니다. 목소리의 감정을 조율 할 수있는 무대의 능력은 아마도 가장 중요한 요소가 될 것입니다. 무대는 많은 정보 나 전문적인 정보로 작업 할 필요가 없기 때문에 잠재 고객 기반은 광범위하다고 Ahmed는 설명했다. 더 인상적인 해석 하이라이트는 아마존, 구글, 그리고 다른 기술 괴물은 텍스트, 사이트 해독 또는 소리를 가져 와서 그것을 책 쇼로 해석하는 데 훨씬 더 적합합니다.

Source: https://chatbotslife.com/resemble-ai-can-now-clone-your-voice-to-speak-new-languages-5250e93ebfbf?source=rss—-a49517e4c30b—4

AI

게임용 GPU, 데이터 센터 서버는 모든 곳에서 칩 부족에도 불구하고 Nvidia의 수익을 계속 증가시키고 있습니다.

화신

게재

on

Nvidia는 글로벌 칩 부족 속에서도 계속 성장하고 월스트리트의 기대치를 능가하고 있습니다. 수요일에는 2021 회계 연도 31 분기, XNUMX 개월부터 XNUMX 월 XNUMX 일까지의 실적 및 연간 실적을 발표했습니다.

CEO Jensen Huang은 수치를 논의하기 위해 애널리스트들과의 전화 회의를 앞두고 "4 분기는 또 다른 기록적인 분기였으며 돌파구를 기록했다"고 자랑했습니다. 그는 실리콘 밸리 기업의 가장 큰 두 영역으로 게임과 데이터 센터를 꼽았으며 둘 다 수익을 올렸습니다.

“가속 컴퓨팅 분야의 선구적인 작업으로 게임은 세계에서 가장 인기있는 엔터테인먼트가되었고 슈퍼 컴퓨팅이 모든 연구자들에게 민주화되었으며 AI가 기술에서 가장 중요한 힘으로 부상하게되었습니다. " 분출 된 문한다.

특히 수직적 GPU 판매가 하이퍼 스케일 클라우드 거대 기업에 대한 판매와 달리 Nvidia의 데이터 센터 수익 성장을 주도한다고 들었습니다. CFO 인 Colette Kress는 회의에서 분석가들에게“수퍼 컴퓨팅, 금융 서비스, 고등 교육 및 소비자 인터넷 수직 분야에서 특히 강점을 가진 컴퓨팅 및 네트워킹 전반에 걸쳐 데이터 센터 매출의 50 %를 훨씬 넘는 수직 산업이 차지했습니다.

작년에 GPU 거대 기업은 자사를 기반으로 한 수많은 프로세서를 출시했습니다. 암페어 아키텍처. 여기에는 최고급 A100, AI 슈퍼 컴퓨터, 서버 및 덩어리가 많은 워크 스테이션을 위해 설계되었으며, 대부분의 컴퓨팅 성능은 대규모 신경망 및 기계 학습 알고리즘을 훈련, 개발 및 실행하는 데 사용됩니다.

또한 RTX 30 우산 아래 다양한 전력의 3090 개 카드로 GeForce 게임 라인을 새로 고쳤습니다. 3080, 3070, 3060, XNUMX Ti를 포함한 거의 모든 제품은 출시 후 빠르게 스냅되었습니다. 하드웨어 재고는 낮으며 다음으로 인해 곧 회복 될 것으로 예상되지 않습니다. 지속적인 가뭄 반도체

RTX 3060 카드는 목요일에 판매 될 예정입니다. 그것이 바로 Nv가 조절판 운전자 수준에서 Ethereum과 같은 동전을 채굴하는 데 사용되고 있음을 감지하면 일부 채굴자가 출시시 저렴한 카드를 잡는 것을 막을 수 있으므로 게이머가 싸울 수 있도록 몇 가지 더 남길 수 있습니다. 다음 달부터 Nvidia는 채굴을 위해 특별히 GPU를 선전 할 것입니다. 그것은되었습니다 추천 이 접근 방식은 겉보기에는 합리적으로 보이지만 채굴자가 운전자 강화 보호를 무너 뜨리고 암호화 채굴 카드가 실리콘을 게이머로부터 멀어지게한다면 실제로 많은 성과를 거두지 못할 것입니다.

Kress는 컨퍼런스 콜에서“전체 RTX 30 시리즈 라인업은 재고를 유지하기가 어려웠고, 채널 인벤토리를 시작했을 때보 다 훨씬 낮은 수준으로 4 분기를 종료했습니다. "우리는 공급을 늘리고 있지만 채널 재고는 1 분기 내내 낮게 유지 될 것입니다."

Huang은 다음과 같이 덧붙였습니다.“회사 수준에서는 제약이 있습니다. 수요가 공급보다 더 큽니다.… 정말 좋은 작업 계획을 세우면됩니다.” 그런 다음 투자자들에게 확신을주기 위해 "우리는 일년 내내 분기별로 성장할 수있는 충분한 공급량을 가지고 있습니다."

이 모든 것에도 불구하고 Nvidia는 건강하고 건강 해 보입니다. 다음은 숫자에 대한 간단한 요약입니다.

  • 수익 5 분기에 61 억 달러로 3.1 년 전의 2021 억 달러에 비해 16.7 % 증가했습니다. 이는 또한 53 년 회계 연도 말을 의미하며 총 수익은 전년도의 10.9 억 달러에서 XNUMX % 증가한 XNUMX 억 달러로 증가했습니다.
  • 노름 4 분기에 2.5 억 달러를 벌어 들였는데, 이는 67 년 전보다 70 % 증가한 것입니다. GeForce RTX 30 그래픽 칩셋이 포함 된 XNUMX 개 이상의 새로운 노트북 모델이 출시되었습니다.
  • 데이터 센터 두 번째로 큰 부문으로 1.9 분기 매출 4 억 달러를 기록했습니다. 이는 전년도에 비해 97 % 증가한 것입니다. 여기에는 Mellanox의 수치는 포함되지 않습니다. 인수 된 네트워킹 비즈니스는 "3 분기에 중국 OEM에 대한 판매가 반복되지 않아 연속적으로 감소했습니다."라고 CFO는 말했습니다. "다음 분기부터는… 더 이상 Mellanox 수익을 별도로 나누지 않을 것입니다."
  • 자동차, 전문 시각화 및 OEM 비교하면 훨씬 더 작으며 각각 $ 145m, $ 307m, $ 153m입니다. 여기서 수익은 11 %, 자율 주행 자동차와 게임 및 애니메이션의 그래픽 렌더링에 대한 7 % 감소했습니다. 그러나 OEM은 전년 대비 1 % 증가했습니다.
  • 당기 순이익 최근 분기에는 1.46 억 달러로 전년 대비 53 억 950 천만 달러에서 55 % 증가했습니다. 4.3 년 동안 XNUMX % 증가한 XNUMX 억 달러를 기록했습니다.
  • 총 마진 비율 63.1 %로 180 년 전보다 XNUMXbp 하락했습니다.
  • 주당 GAAP 수입 $ 2.31로 전년 대비 51 % 증가했습니다.

엔비디아 제안 된 영국의 칩 디자이너 Arm 인수는 미국과 영국의 규제 기관에서 검토 중입니다. 모든 사람이 그것에 찬성하는 것은 당연합니다. Google, Microsoft 및 Qualcomm은 비공개로 우려를 표명했습니다. 그러나 황은 거래가 성사 될 것이라고 확신했다.

“당시 우리는 미국, 영국, EU, 중국 및 기타 관할권에서 인수가 처리되는 데 18 개월이 걸릴 것으로 예상했습니다.”라고 그는 말했습니다. “이 프로세스는 예상대로 진행되고 있습니다. 우리는 규제 기관이 혜택을 볼 것이라고 확신합니다. Arm과 Nvidia는 함께 생태계에 더 큰 선택권을 제공 할 것이며 Arm의 개방형 라이선스 모델을 계속할 계획입니다.

“대유행은 지나갈 것이지만 세상은 영원히 변했습니다. 모든 산업에서 기술이 가속화되고 있습니다. 디지털화, 자동화 및 가속화의 시급성은 그 어느 때보 다 높았습니다. " ®

출처 : https://go.theregister.com/feed/www.theregister.com/2021/02/25/gpus_for_gaming_and_aipowered/

계속 읽기

AI

컨테이너 이미지를 사용하여 AWS Lambda에서 TensorFlow 모델 실행

화신

게재

on

TensorFlow 신경망 및 ML 모델을 개발하는 데 널리 사용되는 오픈 소스 머신 러닝 (ML) 라이브러리입니다. 이러한 모델은 일반적으로 학습 속도를 높이기 위해 여러 GPU 인스턴스에서 학습되므로 학습 시간과 모델 크기가 최대 몇 기가 바이트에 이릅니다. 교육을받은 후 이러한 모델은 추론을 생성하기 위해 프로덕션에 배포됩니다. 동기식, 비동기식 또는 배치 기반 워크로드 일 수 있습니다. 이러한 엔드 포인트는 XNUMX 개에서 수백만 개의 요청을 처리하기 위해 고도로 확장 가능하고 탄력적이어야합니다. 여기가 AWS 람다 확장 가능하고 비용 효율적이며 안정적인 동기 및 비동기 ML 추론을위한 강력한 컴퓨팅 서비스가 될 수 있습니다. Lambda는 자동 조정, 운영 오버 헤드 감소, 추론 당 지불 청구와 같은 이점을 제공합니다.

이 게시물에서는 최대 10GB의 메모리로 프로덕션에서 확장 가능한 추론을 위해 Lambda와 함께 TensorFlow 모델을 사용하는 방법을 보여줍니다. 이를 통해 Lambda 함수에서 최대 몇 기가 바이트까지 ML 모델을 사용할 수 있습니다. 이 게시물에서는 사전 학습 된 TensorFlow-Keras를 사용합니다. ResNet50 이미지 분류를 위해.

솔루션 개요

Lambda는 서버를 프로비저닝하거나 관리하지 않고도 코드를 실행할 수있는 서버리스 컴퓨팅 서비스입니다. Lambda는 모든 이벤트에 대한 응답으로 코드를 실행하여 애플리케이션을 자동으로 확장하여 이벤트 기반 아키텍처 및 솔루션을 허용합니다. 코드는 병렬로 실행되고 각 이벤트를 개별적으로 처리하여 하루에 몇 개의 요청에서 수십만 개의 워크로드로 워크로드의 크기에 따라 확장됩니다. 다음 다이어그램은 솔루션의 아키텍처를 보여줍니다.

코드와 종속성을 컨테이너 이미지 Docker CLI와 같은 도구를 사용합니다. 최대 컨테이너 크기는 10GB입니다. 추론을위한 모델이 Dockerized되면 ​​이미지를 다음 위치에 업로드 할 수 있습니다. Amazon Elastic Container Registry (Amazon ECR). 그런 다음 Amazon ECR에 저장된 컨테이너 이미지에서 Lambda 함수를 생성 할 수 있습니다.

사전 조건

이 연습에서는 다음과 같은 전제 조건이 있어야합니다.

솔루션 구현

이미지 분류를 위해 TensorFlow Hub의 사전 학습 된 모델을 사용합니다. 이미지가 아마존 단순 스토리지 서비스 (Amazon S3) 버킷, Lambda 함수가 호출되어 이미지를 감지하고 아마존 클라우드 워치 로그. 다음 다이어그램은이 워크 플로를 보여줍니다.

솔루션을 구현하려면 다음 단계를 완료하십시오.

  1. 로컬 컴퓨터에서 이름으로 폴더를 만듭니다. lambda-tensorflow-example.
  2. 만들기 requirements.txt 해당 디렉토리의 파일.
  3. ML 모델에 필요한 모든 라이브러리를 추가합니다. 이 게시물에서는 TensorFlow 2.4를 사용합니다.
  4. 를 생성 app.py Lambda 함수에 대한 코드가 포함 된 스크립트.
  5. 동일한 디렉터리에 Dockerfile을 만듭니다.

다음 텍스트는 사용 사례에서 TensorFlow 코드를 실행하기위한 requirements.txt 파일의 예입니다.

# List all python libraries for the lambda
tensorflow==2.4.0
tensorflow_hub==0.11
Pillow==8.0.1

이 글을 쓰는 시점에서 Lambda는 CPU 지원 만 제공하기 때문에 CPU 만 지원하는 TensorFlow 2.4 버전을 사용하고 있습니다. CPU 전용 버전의 TensorFlow에 대한 자세한 내용은 패키지 위치.

Python 코드는 app.py에 있습니다. app.py의 추론 함수는 특정 구조를 따라야합니다. Lambda 런타임. Lambda 용 핸들러에 대한 자세한 내용은 Python의 AWS Lambda 함수 핸들러. 다음 코드를 참조하십시오.

import json
import boto3
import numpy as np
import PIL.Image as Image import tensorflow as tf
import tensorflow_hub as hub IMAGE_WIDTH = 224
IMAGE_HEIGHT = 224 IMAGE_SHAPE = (IMAGE_WIDTH, IMAGE_HEIGHT)
model = tf.keras.Sequential([hub.KerasLayer("model/")])
model.build([None, IMAGE_WIDTH, IMAGE_HEIGHT, 3]) imagenet_labels= np.array(open('model/ImageNetLabels.txt').read().splitlines())
s3 = boto3.resource('s3') def lambda_handler(event, context): bucket_name = event['Records'][0]['s3']['bucket']['name'] key = event['Records'][0]['s3']['object']['key'] img = readImageFromBucket(key, bucket_name).resize(IMAGE_SHAPE) img = np.array(img)/255.0 prediction = model.predict(img[np.newaxis, ...]) predicted_class = imagenet_labels[np.argmax(prediction[0], axis=-1)] print('ImageName: {0}, Prediction: {1}'.format(key, predicted_class)) def readImageFromBucket(key, bucket_name): bucket = s3.Bucket(bucket_name) object = bucket.Object(key) response = object.get() return Image.open(response['Body'])

Python 3.8 용 다음 Dockerfile은 AWS에서 제공하는 오픈 소스를 사용합니다. 기본 이미지 컨테이너 이미지를 만드는 데 사용할 수 있습니다. 기본 이미지에는 Lambda에서 컨테이너 이미지를 실행하는 데 필요한 언어 런타임 및 기타 구성 요소가 미리로드되어 있습니다.

# Pull the base image with python 3.8 as a runtime for your Lambda
FROM public.ecr.aws/lambda/python:3.8 # Install tar and gzip
RUN yum -y install tar gzip zlib # Copy the earlier created requirements.txt file to the container
COPY requirements.txt ./ # Install the python requirements from requirements.txt
RUN python3.8 -m pip install -r requirements.txt # Copy the earlier created app.py file to the container
COPY app.py ./ # Download ResNet50 and store it in a directory
RUN mkdir model
RUN curl -L https://tfhub.dev/google/imagenet/resnet_v1_50/classification/4?tf-hub-format=compressed -o ./model/resnet.tar.gz
RUN tar -xf model/resnet.tar.gz -C model/
RUN rm -r model/resnet.tar.gz # Download ImageNet labels
RUN curl https://storage.googleapis.com/download.tensorflow.org/data/ImageNetLabels.txt -o ./model/ImageNetLabels.txt # Set the CMD to your handler
CMD ["app.lambda_handler"]

폴더 구조는 다음 스크린 샷과 같아야합니다.

다음 bash 명령을 사용하여 컨테이너 이미지를 빌드하고 Amazon ECR에 푸시 할 수 있습니다. 교체 자신의 AWS 계정 ID를 사용하고 .

# Build the docker image
docker build -t lambda-tensorflow-example . # Create a ECR repository
aws ecr create-repository --repository-name lambda-tensorflow-example --image-scanning-configuration scanOnPush=true --region <REGION> # Tag the image to match the repository name
docker tag lambda-tensorflow-example:latest <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com/lambda-tensorflow-example:latest # Register docker to ECR
aws ecr get-login-password --region <REGION> | docker login --username AWS --password-stdin <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com # Push the image to ECR
docker push <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com/lambda-tensorflow-example:latest

모델 추론을 로컬에서 테스트하려는 경우 Lambda의 기본 이미지에 RIE (Runtime Interface Emulator)가 포함되어 있습니다. 로컬 테스트 Lambda 함수를 컨테이너 이미지로 패키징하여 개발주기를 가속화하십시오.

S3 버킷 생성

다음 단계로 이미지 클래스를 예측하는 데 사용되는 이미지를 저장할 S3 버킷을 생성합니다.

  1. Amazon S3 콘솔에서 버킷 만들기.
  2. S3 버킷에 다음과 같은 이름을 지정합니다. tensorflow-images-for-inference-<Random_String> 교체 임의의 값으로.
  3. 선호하는 버킷 만들기.

TensorFlow 코드로 Lambda 함수 생성

Lambda 함수를 생성하려면 다음 단계를 완료하십시오.

  1. Lambda 콘솔에서 기능.
  2. 선호하는 기능 만들기.
  3. 고르다 컨테이너 이미지.
  4. 기능 명, 같은 이름을 입력하십시오 tensorflow-endpoint.
  5. 컨테이너 이미지 URI, 이전에 만든 입력 lambda-tensorflow-example 저장소.

  1. 선호하는 이미지 찾아보기 최신 이미지를 선택합니다.
  2. 개인 및 전문적인 기능 만들기 생성을 초기화합니다.
  3. Lambda 런타임을 개선하려면 함수 메모리를 6GB 이상으로 늘리고 시간 제한을 5 분으로 늘리십시오. 기본 설정.

함수 메모리 및 시간 초과 설정에 대한 자세한 내용은 AWS Lambda의 새로운 기능 – 최대 10GB의 메모리와 6 개의 vCPU를 사용하는 함수.

Lambda 함수에 S3 버킷 연결

Lambda 함수를 성공적으로 생성 한 후에는 파일이 S3 버킷에 업로드 될 때마다 함수가 호출되도록 트리거를 추가해야합니다.

  1. Lambda 콘솔에서 기능을 선택하십시오.
  2. 선호하는 트리거 추가.

  1. 선호하는 S3.
  2. 버킷에서 이전에 생성 한 버킷을 선택합니다.

트리거가 추가 된 후 적절한 설정을 통해 Lambda 함수가 S3 버킷에 연결하도록 허용해야합니다. AWS 자격 증명 및 액세스 관리 (IAM) 실행 역할에 대한 권한.

  1. 권한 탭에서 IAM 역할을 선택합니다.
  2. 선호하는 정책 첨부.
  3. 에 대한 검색 AmazonS3ReadOnlyAccess IAM 역할에 연결합니다.

이제 기능을 테스트하는 데 필요한 모든 서비스를 구성했습니다. AWS 관리 콘솔에서 버킷을 열고 클릭하여 생성 된 S3 버킷에 JPG 이미지를 업로드합니다. 업로드 (Upload). 몇 초 후 CloudWatch 로그에서 예측 결과를 볼 수 있습니다. 후속 단계로 예측을 아마존 DynamoDB 테이블.

JPG 사진을 S3 버킷에 업로드 한 후 예측 이미지 클래스를 결과적으로 CloudWatch에 인쇄합니다. Lambda 함수는 EventBridge에 의해 트리거되고 버킷에서 이미지를 가져옵니다. 예를 들어,이 사진을 사용하겠습니다. 앵무새 추론 엔드 포인트에서 예측할 수 있습니다.

CloudWatch 로그에서 예측 클래스가 인쇄됩니다. 실제로이 모델은 그림 (마코)에 대한 올바른 클래스를 예측합니다.

성과

최적의 성능을 얻으려면 다양한 수준의 메모리 설정 (할당 된 vCPU를 선형으로 변경)을 시도해 볼 수 있습니다. AWS 뉴스 블로그). 배포 된 모델의 경우 약 3GB – 4GB (~ 2vCPU) 설정에서 대부분의 성능 향상을 실현하고 그 이상의 향상은 상대적으로 낮습니다. 모델마다 CPU 양이 증가하여 성능 향상 수준이 다르기 때문에 자신의 모델에 대해 실험적으로 결정하는 것이 가장 좋습니다. 또한 소스 코드를 컴파일하여 활용하는 것이 좋습니다. 고급 벡터 확장 2 (AVX2) Lambda에서 vCPU가 클록주기 당 더 많은 수의 정수 및 부동 소수점 작업을 실행할 수 있도록하여 성능을 더욱 향상시킵니다.

결론

Lambda에 대한 컨테이너 이미지 지원을 통해 함수를 훨씬 더 사용자 지정하여 서버리스 ML에 대한 많은 새로운 사용 사례를 열 수 있습니다. 사용자 지정 모델을 가져 와서 컨테이너 이미지 크기로 최대 10GB를 사용하여 Lambda에 배포 할 수 있습니다. 컴퓨팅 성능이 많이 필요하지 않은 소규모 모델의 경우 순수하게 Lambda에서 온라인 교육 및 추론을 수행 할 수 있습니다. 모델 크기가 증가하면 콜드 스타트 ​​문제가 점점 더 중요 해지고 완화. 컨테이너 이미지가있는 프레임 워크 나 언어에도 제한이 없습니다. 다음과 같은 다른 ML 프레임 워크 파이 토치, 아파치 MXNet, XGBoost사이 킷 러닝 또한 사용할 수 있습니다!

추론을 위해 GPU가 필요한 경우 다음과 같은 컨테이너 서비스 사용을 고려할 수 있습니다. Amazon Elastic Container Service (Amazon ECS), Kubernetes 또는 모델을 아마존 세이지 메이커 엔드 포인트.


저자에 관하여

얀 바우어 AWS Professional Services의 클라우드 애플리케이션 개발자입니다. 그의 관심 분야는 서버리스 컴퓨팅, 머신 러닝 및 클라우드 컴퓨팅과 관련된 모든 것입니다.

출처 : https://aws.amazon.com/blogs/machine-learning/using-container-images-to-run-tensorflow-models-in-aws-lambda/

계속 읽기

AI

아마존, 제조 된 제품의 결함 감지를위한 컴퓨터 비전 서비스 출시

화신

게재

on

아마존 발표 컴퓨터 비전을 사용하여 이미지를 분석하여 제품을 찾아 내거나 제조 상품의 결함과 이상을 처리하는 클라우드 서비스 인 Amazon Lookout for Vision의 일반 공급. Amazon은 Lookout for Vision을 선택합니다. Amazon Web Services (AWS) AWS 콘솔 및 지원 파트너를 통해 지역은 30 개의 기준 이미지를 사용하여 AI 모델을 교육 할 수 있습니다.

제조 작업은 인간이 루프에있을 때 오류가 발생하기 쉽습니다. ㅏ 공부 Vanson Bourne은 제조에서 계획되지 않은 모든 다운 타임의 23 %가 사람의 실수로 인한 것이라고 밝혔습니다. 다른 부문에서는 9 %에 불과했습니다. 327.6 억 XNUMX 천 XNUMX 백 XNUMX 십만 달러의 화성 기후 궤도 우주선은 측정 단위를 올바르게 변환하지 못해 파괴되었습니다. 그리고 하나의 제약 회사 신고 오해로 인해 경고 티켓이 무시되어 생산 라인에서 200,000 일 동안 하루에 £ 253,946 ($ XNUMX)의 비용이 발생했습니다.

Lookout for Vision은 약간의 AI를 믹스에 주입하여 제품의 외관에서 균열, 움푹 들어간 곳, 잘못된 색상, 불규칙한 모양 등 제조 및 생산 결함을 감지하여이를 방지하는 것을 목표로합니다. 이 서비스는 시간당 수천 개의 이미지를 처리 ​​할 수 ​​있으며 사전 약정이나 최소 요금이 필요하지 않습니다. 고객은 서비스를 사용하여 모델을 교육하고 이상 또는 결함을 감지하는 데 사용하는 데 시간당 비용을 지불합니다.

데이터를 분석 한 후 Lookout for Vision은 서비스 대시 보드 또는 실시간 API를 통해 기준과 다른 이미지를보고합니다. Lookout for Vision은 작업 환경의 변화로 인해 발생하는 카메라 각도, 포즈 및 조명의 차이로 정확성을 유지할 수있을만큼 정교하다고 Amazon은 주장합니다. 여전히 고객은 예측이 이상을 올바르게 식별했는지 여부에 관계없이 결과에 대한 피드백을 제공 할 수 있습니다. Lookout for Vision은 서비스가 지속적으로 개선되도록 기본 모델을 자동으로 재교육합니다.

Lookout for Vision을 사용하는 고객으로는 GE Healthcare, Basler 및 스웨덴에 기반을 둔 Dafgards가 있습니다. (Lookout for Vision은 Amazon의 가상 re : Invent 컨퍼런스에서 공개 한 후 2020 년 XNUMX 월부터 고객과 함께 미리보기로 출시되었습니다.) Dafgards는이 서비스를 사용하여 생산 라인 검사를 자동화하고 피자, 햄버거, 키쉬에 올바른 토핑이 있는지 감지합니다. . 그리고 주문형 책을 인쇄하여 고객 주문을 처리하는 Amazon의 자체 Print-On-Demand 시설은 Lookout for Vision을 활용하여 책 제조의 각 단계에서 시각적 검사를 자동화하고 확장하고 있습니다.

“고객이 냉동 피자에 토핑을 얹든 비행기를 위해 정밀하게 보정 된 부품을 제조하든 상관없이 우리가 들었던 것은 고품질 제품 만 최종 사용자에게 전달되도록 보장하는 것이 비즈니스의 기본이라는 것입니다. 이것이 분명해 보일 수 있지만 산업 파이프 라인에서 이러한 품질 관리를 보장하는 것은 실제로 매우 어려울 수 있습니다.”라고 AWS Swami Sivasubramanian의 Amazon Machine Learning 부사장은 보도 자료에서 말했습니다. “Amazon Lookout for Vision을 모든 규모와 모든 산업의 고객에게 빠르고 비용 효과적으로 대규모로 결함을 감지하여 고객이 기계 학습 경험없이 신뢰하는 품질을 유지하면서 시간과 비용을 절약 할 수 있도록 지원하게되어 기쁩니다. 필수입니다.”

VentureBeat

VentureBeat의 사명은 기술 의사 결정권자가 혁신적인 기술과 거래에 대한 지식을 습득 할 수있는 디지털 타운 스퀘어가되는 것입니다. 당사 사이트는 데이터 기술 및 전략에 대한 필수 정보를 제공하여 조직을 이끌 때 안내합니다. 다음에 액세스 할 수 있도록 커뮤니티의 일원이되도록 귀하를 초대합니다.

  • 관심있는 주제에 대한 최신 정보
  • 뉴스 레터
  • 통제 된 사고 리더 콘텐츠 및 Transform과 같은 소중한 이벤트에 대한 할인 된 액세스
  • 네트워킹 기능 등

회원 가입

출처 : https://venturebeat.com/2021/02/24/amazon-launches-computer-vision-service-to-detect-defects-in-manufactured-products/

계속 읽기

AI

IBM은 Watson과 함께 의료에서 ​​후퇴 

화신

게재

on

IBM은 의료 분야에서 AI를 적용하는 데 따르는 어려움을 보여주는 Watson Health의 매각을 고려하고있는 것으로 알려졌습니다. IBM은 Watson을 사용하여 클라우드 서비스에 계속 투자하고 있습니다. (Unsplash의 Carson Masterson의 사진)  

작성자 : John P. Desmond (AI 트렌드 편집자)  

지난주 IBM이 이전 CEO의 지시에 따라 IBM이 추구했던 헬스 케어에 적용된 AI 시장에서 퇴각을 의미하는 Watson Health의 매각을 고려하고 있다는 보고서가 나왔습니다. 

월스트리트 저널 지난주에 IBM이 Watson Health의 판매를 검토하고 있다고 보도했습니다. IBM은 보고서를 확인하지 않았습니다. XNUMX 년 전 IBM Watson이 위험! 게임 기록 우승자 두 명과의 게임 쇼, AI 분야의 Watson 브랜드가 설립되었습니다. 

보고 된대로 AI 트렌드 지난 XNUMX 월, t그는 Watson이 두 명의 인간 챔피언을 격파 한 다음날 위험!, IBM은 Watson이 의료 분야로 향하고 있다고 발표했습니다. IBM은 텔레비전에서 보여준 자연어를 이해하고 그것을 의학에 적용하는 능력을 갖습니다. 최초의 상용 제품은 18 개월에서 24 개월 내에 제공 될 것이라고 회사는 약속했다. IEEE 스펙트럼 2019 년 XNUMX 월부터.  

힘든 길이었습니다. IBM은 AI를 의학에 도입하기 위해 대대적으로 추진 한 최초의 회사입니다. 알람이 울 렸습니다. 로버트 워터, 샌프란시스코 대학교 의학부 의장 및 2015 년 저서 디지털 의사 : 의학의 컴퓨터 시대의 새벽에 희망, 과대 광고 및 피해 (맥그로우 힐). 왓슨 승리 Jeopardy에! IBM AI 세일즈 포스에게 런칭 패드를 제공했습니다.  

Wachter는 "그들은 마케팅을 먼저, 제품을 두 번째로 들어 왔고 모두가 흥분했습니다."라고 말했습니다. “그런 다음 고무가 길을 쳤습니다. 이것은 엄청나게 어려운 문제이며, IBM은 선점을 통해 다른 모든 사람들에게이를 입증했습니다.”  

당시 IBM CEO Ginni Rometty, Watson Victory를 사용하여 의료 분야에서 AI 출시  

Ginni Rometty, 당시 IBM의 CEO는 2017 년 컨퍼런스에서 의료 IT 전문가 청중에게 "AI는 주류이며 여기에 있으며 의료에 대한 거의 모든 것을 바꿀 수 있습니다."라고 말했습니다. 그녀는 많은 사람들과 마찬가지로 AI가 의료 산업을 변화시키는 데 도움이 될 잠재력을 보았습니다. 

Watson은 자연어 처리 기술을 활용하여 Jeopardy에서 우승했습니다. Watson 팀은 Jeopardy 단서 및 응답의 훈련 데이터 세트에 기계 학습을 사용했습니다. 의료 시장에 진입하기 위해 IBM은 의료 기록에 대한 텍스트 인식을 사용하여 지식 기반을 구축했습니다. 전문 용어와 속기로 가득 찬 의사 메모와 같은 구조화되지 않은 데이터는 80 개를 차지할 수 있습니다.% 환자 기록의. 도전적이었습니다.   

그 노력은 진단 도구를 만드는 것이 었습니다. IBM은 2015 년에 Watson Health 부서를 구성했습니다.이 부서는 4 억 달러를 인수했습니다. 투자를 정당화하기 위해 의료 사업 사례에 대한 검색이 계속되었습니다. 대규모 의료 데이터 세트를 사용하는 의사 결정 지원을 중심으로 많은 프로젝트가 시작되었습니다. 환자를위한 암 치료를 개인화하기위한 종양학에 대한 초점은 유망 해 보였습니다.  

의 의사 휴스턴에있는 텍사스 대학교 MD Anderson Cancer Center는 IBM과 협력하여 Oncology Expert Advisor라는 도구를 만들었습니다. MD Anderson은 테스트 단계 백혈병 부서에서; 그것은 결코 상업적 제품이되지 않았습니다.   

프로젝트는 잘 끝나지 않았습니다. 2016 년에 취소되었습니다. 텍사스 대학교의 감사 결과 암 센터가이 프로젝트에 62 만 달러를 지출 한 것으로 나타났습니다. IEEE Spectrum의 저자들은이 프로젝트가 오늘날의 의사들에게 유용한“머신 러닝의 약속과 의료의 현실 사이의 근본적인 불일치”를 드러냈다고 말했습니다.  

당시 다른 보고서에 따르면 IBM은 2018 년에 IBM Watson Health 부서에서 정리해 고를했습니다. IEEE 스펙트럼 6 월 2018. IBM이 인수 한 회사 중 하나 인 Phytel의 엔지니어는 인수 이후 환자 분석 솔루션에 대한 고객 기반이 150에서 80으로 줄어들고 있다고보고했습니다. 엔지니어는 "작은 회사들이 우리를 산채로 먹고 있습니다."라고 말했습니다. “더 좋고 빠르며 저렴합니다. 그들은 우리의 계약을 따 내고 고객을 데려 가고 AI에서 더 잘하고 있습니다.”  

의료의 현실과 AI의 약속 사이에서 발견 된 불일치  

Dr. Thomas J. Fuchs, Mount Sinai Health System AI 및 인간 건강 학장

AI의 약속과 의료의 현실 사이의 불일치에 대한 이러한 개념은 기술 회사가 환자 환경에서 의료가 작동하는 방식에 대한 깊은 전문 지식이 부족할 수 있다는 지난주 월스트리트 저널 보고서에서 언급되었습니다. Mount Sinai Health System의 인공 지능 및 인간 건강 학장 인 Thomas J. Fuchs는“참호의 임상 워크 플로우를 진정으로 이해해야합니다. “AI를 삽입 할 수있는 위치와 그것이 도움이 될 수있는 부분을 이해해야합니다.”클리닉에서 일을 늦추지 않고. 

컴퓨터 과학의 진보 된 AI를 실행 가능한 소프트웨어 제품 또는 서비스로 패키징하는 것은 항상 소프트웨어 비즈니스에서 근본적인 과제였습니다. Bernstein Research의 분석가 인 Toni Sacconaghi는“Watson은 IBM에서 좋은 과학을 받아들이고이를 상업적으로 적절하게 만드는 방법을 찾는 광범위한 문제를 매우 상징 할 수 있습니다.  

Toni Sacconaghi, 분석가, Bernstein Research

새로운 IBM CEO Arvind Krishna는 하이브리드와 함께 AI를 말했다 클라우드 컴퓨팅은 앞으로 IBM의 핵심이 될 것입니다. (만나다 AI 트렌드, 2020 년 100 월.) 크리슈나는 어려움을 겪고있는 사업부에서 벗어나 지속적으로 성장할 수있는 사업부에 집중하고 있습니다. 이러한 노력의 일환으로 IBM은 관리 IT 서비스 부서를 새로운 상장 기업으로 분리하는 과정에 있습니다. 분석가들은 IT 서비스를 수익성이 떨어지는 비즈니스로 간주합니다. IBM은 2010 년에 73.6 억 달러의 매출을 올렸고 작년에는 XNUMX 억 달러를 기록했습니다. 

의료 분야에서 AI의 또 다른 과제는 데이터 수집 표준이 없다는 것입니다. 이로 인해 한 의료 환경에서 개발 된 모델을 적용하고 다른 의료 환경에 적용하기가 어렵습니다. 캘리포니아 팔로 알토에 기반을 둔 스타트 업 Landing AI의 AI 전문가이자 CEO 인 Andrew Ng는“맞춤화 문제는 의료 분야에서 심각합니다. 월스트리트 저널. 

AI가 유망하고 결과를 달성 한 의료 시장에는 영상 인식 기술을 사용하여 특정 질문에 답할 수있는 방사선 및 병리학이 포함됩니다. 또한 AI는 청구 및 차트 작성과 같은 비즈니스 프로세스를 능률화하여 비용을 절감하고 직원이 더 어려운 영역에 집중할 수 있도록 지원합니다. 관리 비용은 의료 비용의 30 %라고합니다. 

한편, AI에 대한 의료 투자는 계속되고 있으며 지출은 연간 48 배 증가 할 것으로 예상됩니다.% 최근 보고서에 따르면 2023 년까지 사업 내부자. 새로운 플레이어에는 의사가보다 정보에 입각 한 임상 결정을 내릴 수 있도록 돕기 위해 머신 러닝을 통해 사용자의 전자 건강 기록에서 데이터를 가져올 수있는 Cloud Healthcare API (애플리케이션 프로그래밍 인터페이스)를 정의한 Google과 같은 거대 기업이 포함됩니다. Google은 또한 병원 방문 결과를 예측하기 위해 AI 시스템을 개발하기 위해 캘리포니아 대학, 스탠포드 대학 및 시카고 대학과 협력하고 있습니다. 

AI는 또한 사용자와 의료 전문가에게 잠재적 인 건강 문제와 위험을 경고 할 수있는 FitBits 및 스마트 워치와 같은 웨어러블 기술을 통해 개인화 된 의료로의 전환에 적용되고 있습니다.  

IBM은 의료 분야에서 Watson을 적용하지 않고 클라우드 서비스 오퍼링에서 Watson의 역할을 확장하고 있습니다. 여기에는 자연어 처리, 감정 분석 및 가상 비서가 포함됩니다. IBM Watson 블로그,  

소스 기사 및 정보 읽기 월스트리트 저널in IEEE 스펙트럼 2019 년 XNUMX 월부터 AI 트렌드 2020 년 XNUMX 월 IEEE 스펙트럼 2018 년 XNUMX 월부터 AI 트렌드, 2020 년 XNUMX 월 사업 내부자 과에 IBM Watson 블로그.  

출처 : https://www.aitrends.com/healthcare/ibm-reportedly-retreating-from-healthcare-with-watson/

계속 읽기
블록체인4 일 전

VeChain 검토 : 블록 체인 공급망 관리

Amb Crypto5 일 전

Litecoin 가격 분석 : 20 월 XNUMX 일

PR 뉴스 와이어4 일 전

S3 AeroDefense, Honeywell Aerospace와 10 년 유통 계약 및 수리 라이센스 체결

Amb Crypto5 일 전

MicroStrategy 및 기타 기관이 Bitcoin 구매를 후회하지 않는 이유

Amb Crypto5 일 전

Bitcoin의 소매 채택이 $ 55,000에 도전하는 이유

Amb Crypto5 일 전

Chainlink는 Danal Fintech와 통합하여 소매 Bitcoin 지불을 지원합니다.

자동차5 일 전

Tesla의 Gigafactory 공식은 Fremont Factory의 겸손한 "텐트"에서 시작되었습니다.

뉴 아틀라스5 일 전

초경량 노트북에는 무거운 가격표가 있습니다.

Amb Crypto5 일 전

비트 코인의 장기 호 들러가 판매자의 시장에 진입하고 있습니까?

Amb Crypto5 일 전

Polkadot, Cosmos, IOTA 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

리플 사건에서 SEC는 "정말 틀렸다"며 전 SEC 회장 Mary Jo White 주장

Amb Crypto5 일 전

Chainlink, Aave, SushiSwap 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

Litecoin, EOS, Decred Price Analysis : 20 월 XNUMX 일

AI5 일 전

이번 주 웹에서 제공하는 멋진 기술 이야기 (20 월 XNUMX 일까지)

Amb Crypto5 일 전

바이 낸스 코인, Tron, FTX 토큰 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

이더 리움 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

Bitcoin의 가격이 62968 월 목표 인 $ XNUMX보다 XNUMX 주 빠른 이유

Amb Crypto5 일 전

Tezos, BAT, Dash 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

Monero, Ethereum Classic, VeChain 가격 분석 : 20 월 XNUMX 일

Amb Crypto5 일 전

비트 코인 : 코인의 Hodling 패턴은 어떻게 바뀌 었습니까?

인기순