제퍼넷 로고

세 가지 새로운 NVIDIA GPU 기반 Amazon EC2 인스턴스 소개 | 아마존 웹 서비스

시간

아마존 엘라스틱 컴퓨트 클라우드 (Amazon EC2) 가속 컴퓨팅 포트폴리오는 인공 지능(AI), 기계 학습(ML), 그래픽 및 고성능 컴퓨팅(HPC) 워크로드를 지원하는 가장 광범위한 가속기를 제공합니다. 최신 NVIDIA GPU를 탑재한 세 가지 새로운 인스턴스, 즉 NVIDIA H2 GPU로 구동되는 Amazon EC5 P200e 인스턴스, NVIDIA L2 GPU로 구동되는 Amazon EC6 G4 인스턴스, NVIDIA L2S GPU로 구동되는 Amazon EC6 G40e 인스턴스로 이 포트폴리오의 확장을 발표하게 되어 기쁘게 생각합니다. 세 가지 인스턴스는 모두 2024년에 제공될 예정이며, 이를 통해 무엇을 할 수 있을지 기대됩니다.

AWS와 NVIDIA는 13년 넘게 협력해 왔으며 다양한 스펙트럼에 걸쳐 개발자와 기업을 위한 대규모의 고성능, 비용 효율적인 GPU 기반 솔루션을 개척해 왔습니다. NVIDIA의 강력한 GPU와 다음과 같은 차별화된 AWS 기술을 결합했습니다. AWS Nitro 시스템, 3,200Gbps 탄성 직물 어댑터 (EFA) v2 네트워킹, 수백 GB/s의 데이터 처리량 Luster 용 Amazon FSx, Amazon EC2 UltraClusters를 사용한 엑사스케일 컴퓨팅을 통해 AI/ML, 그래픽 및 HPC를 위한 가장 성능이 뛰어난 인프라를 제공합니다. 다음과 같은 다른 관리형 서비스와 결합됩니다. 아마존 기반암, 아마존 세이지 메이커Amazon Elastic Kubernetes 서비스 (Amazon EKS)의 이러한 인스턴스는 개발자에게 생성 AI, HPC 및 그래픽 애플리케이션을 구축하고 배포하기 위한 업계 최고의 플랫폼을 제공합니다.

AI, HPC 및 그래픽 워크로드를 위한 비용 효율적인 고성능 GPU 기반 인스턴스

최대 규모의 LLM(대형 언어 모델)의 개발, 훈련 및 추론을 지원하기 위해 EC2 P5e 인스턴스에는 NVIDIA의 최신 H200 GPU가 탑재됩니다. 이 H141 GPU는 H3 GPU보다 1.7배 더 크고 1.4배 빠른 100GB의 HBM3200e GPU 메모리를 제공합니다. . AWS Nitro System에서 지원하는 최대 XNUMXGbps의 EFA 네트워킹과 함께 GPU 메모리가 향상되면 AWS에서 최첨단 모델을 계속 구축, 교육 및 배포할 수 있습니다.

NVIDIA L2S GPU를 탑재한 EC6 G40e 인스턴스는 개발자에게 공개적으로 사용 가능한 LLM의 교육 및 추론을 위해 광범위하게 사용 가능한 옵션을 제공하고 증가하는 SLM(Small Language Models) 채택을 지원하도록 구축되었습니다. 또한 3D 도구와 애플리케이션 전반에 걸쳐 설명 및 시뮬레이션하고 산업 디지털화를 위한 가상 세계와 고급 워크플로우를 생성하기 위해 NVIDIA Omniverse를 사용하는 디지털 트윈 애플리케이션에도 최적입니다.

NVIDIA L2 GPU를 탑재한 EC6 G4 인스턴스는 자연어 처리, 언어 번역, 비디오 및 이미지 분석, 음성 인식, 개인화는 물론 그래픽 워크로드를 위한 ML 모델을 배포하기 위한 저렴하고 에너지 효율적인 솔루션을 제공합니다. 실시간, 영화 품질의 그래픽 및 게임 스트리밍을 생성하고 렌더링합니다.


저자에 관하여

체탄 카푸어 Amazon EC2 가속 컴퓨팅 포트폴리오의 제품 관리 이사입니다.

spot_img

최신 인텔리전스

spot_img