Zephyrnet Logosu

Whisper Model'i Amazon SageMaker'da barındırın: çıkarım seçeneklerini keşfetme | Amazon Web Hizmetleri

Tarih:

OpenAI Fısıltı MIT lisansına sahip gelişmiş bir otomatik konuşma tanıma (ASR) modelidir. ASR teknolojisi, transkripsiyon hizmetlerinde, sesli asistanlarda ve işitme engelli bireyler için erişilebilirliğin arttırılmasında kullanım alanı bulmaktadır. Bu son teknoloji model, web'den toplanan çok dilli ve çok görevli denetlenen verilerden oluşan geniş ve çeşitli bir veri kümesi üzerinde eğitilmiştir. Yüksek doğruluğu ve uyarlanabilirliği, onu sesle ilgili çok çeşitli görevler için değerli bir varlık haline getiriyor.

Sürekli gelişen makine öğrenimi ve yapay zeka ortamında, Amazon Adaçayı Yapıcı kapsamlı bir ekosistem sağlar. SageMaker, veri bilimcilerine, geliştiricilere ve kuruluşlara makine öğrenimi modellerini geniş ölçekte geliştirme, eğitme, dağıtma ve yönetme konusunda güç verir. Çok çeşitli araçlar ve yetenekler sunarak, veri ön işleme ve model geliştirmeden zahmetsiz dağıtım ve izlemeye kadar tüm makine öğrenimi iş akışını basitleştirir. SageMaker'ın kullanıcı dostu arayüzü, onu yapay zekanın tüm potansiyelini ortaya çıkarmak için çok önemli bir platform haline getiriyor ve onu yapay zeka alanında oyunun kurallarını değiştiren bir çözüm haline getiriyor.

Bu yazıda, özellikle Whisper modellerini barındırmaya odaklanarak SageMaker'ın yeteneklerini keşfetmeye başlıyoruz. Bunu yapmak için iki yöntemi derinlemesine inceleyeceğiz: biri Whisper PyTorch modelini kullanıyor, diğeri ise Whisper modelinin Hugging Face uygulamasını kullanıyor. Ek olarak SageMaker'ın çıkarım seçeneklerini derinlemesine inceleyeceğiz ve bunları hız, maliyet, yük boyutu ve ölçeklenebilirlik gibi parametrelerle karşılaştıracağız. Bu analiz, kullanıcıların Whisper modellerini kendi özel kullanım senaryolarına ve sistemlerine entegre ederken bilinçli kararlar almalarını sağlar.

Çözüme genel bakış

Aşağıdaki şemada bu çözümün ana bileşenleri gösterilmektedir.

  1. Modeli Amazon SageMaker'da barındırmak için ilk adım model yapıtlarını kaydetmektir. Bu yapılar, dağıtım ve yeniden eğitim de dahil olmak üzere çeşitli uygulamalar için ihtiyaç duyulan bir makine öğrenimi modelinin temel bileşenlerini ifade eder. Model parametrelerini, konfigürasyon dosyalarını, ön işleme bileşenlerini, ayrıca sürüm ayrıntıları, yazarlık ve performansıyla ilgili notlar gibi meta verileri içerebilirler. PyTorch ve Hugging Face uygulamaları için Whisper modellerinin farklı model yapılarından oluştuğunu unutmamak önemlidir.
  2. Daha sonra özel çıkarım komut dosyaları oluşturuyoruz. Bu scriptler içerisinde modelin nasıl yüklenmesi gerektiğini tanımlıyor ve çıkarım sürecini belirliyoruz. Burası ayrıca gerektiğinde özel parametreleri dahil edebileceğimiz yerdir. Ek olarak gerekli Python paketlerini bir requirements.txt dosya. Modelin dağıtımı sırasında bu Python paketleri, başlatma aşamasında otomatik olarak yüklenir.
  3. Daha sonra PyTorch veya Hugging Face derin öğrenme konteynerlerinden (DLC) birini seçiyoruz. AWS. Bu kapsayıcılar, derin öğrenme çerçeveleri ve diğer gerekli Python paketlerini içeren önceden oluşturulmuş Docker görüntüleridir. Daha fazla bilgi için bunu kontrol edebilirsiniz Link.
  4. Model yapıları, özel çıkarım komut dosyaları ve seçilen DLC'lerle sırasıyla PyTorch ve Hugging Face için Amazon SageMaker modelleri oluşturacağız.
  5. Son olarak modeller SageMaker'a dağıtılabilir ve şu seçeneklerle kullanılabilir: gerçek zamanlı çıkarım uç noktaları, toplu dönüştürme işleri ve eşzamansız çıkarım uç noktaları. Bu seçenekleri bu yazının ilerleyen kısımlarında daha ayrıntılı olarak ele alacağız.

Bu çözüme ilişkin örnek not defteri ve kodu burada bulabilirsiniz GitHub deposu.

Şekil 1. Temel Çözüm Bileşenlerine Genel Bakış

Walkthrough

Whisper Modelini Amazon SageMaker'da Barındırma

Bu bölümde sırasıyla PyTorch ve Hugging Face Framework'leri kullanarak Whisper modelini Amazon SageMaker üzerinde barındırma adımlarını açıklayacağız. Bu çözümü denemek için bir AWS hesabına ve Amazon SageMaker hizmetine erişmeniz gerekir.

PyTorch çerçevesi

  1. Model yapıtlarını kaydet

Modeli barındırmanın ilk seçeneği, Whisper resmi Python paketikullanılarak kurulabilir. pip install openai-whisper. Bu paket bir PyTorch modeli sağlar. Model yapıtlarını yerel depoya kaydederken ilk adım, sinir ağındaki her katmanın model ağırlıkları ve önyargıları gibi modelin öğrenilebilir parametrelerini bir 'pt' dosyası olarak kaydetmektir. 'Küçük', 'temel', 'küçük', 'orta' ve 'büyük' ​​gibi farklı model boyutları arasından seçim yapabilirsiniz. Daha büyük model boyutları daha yüksek doğruluk performansı sunar ancak daha uzun çıkarım gecikmesi maliyetine sahiptir. Ek olarak, diğer meta veriler ve özel yapılandırmalarla birlikte, PyTorch modelinin her katmanını veya parametresini karşılık gelen öğrenilebilir parametrelerle eşleştiren bir Python sözlüğü içeren model durumu sözlüğünü ve boyut sözlüğünü kaydetmeniz gerekir. Aşağıdaki kod Whisper PyTorch yapıtlarının nasıl kaydedileceğini gösterir.

### PyTorch
import whisper
# Load the PyTorch model and save it in the local repo
model = whisper.load_model("base")
torch.save(
    {
        'model_state_dict': model.state_dict(),
        'dims': model.dims.__dict__,
    },
    'base.pt'
)

  1. DLC'yi seçin

Bir sonraki adım, önceden oluşturulmuş DLC'yi buradan seçmektir. Link. Aşağıdaki ayarları dikkate alarak doğru görüntüyü seçerken dikkatli olun: çerçeve (PyTorch), çerçeve sürümü, görev (çıkarım), Python sürümü ve donanım (ör. GPU). Mümkün olduğunda çerçeve ve Python için en son sürümlerin kullanılması önerilir; bu daha iyi performans sağlar ve önceki sürümlerdeki bilinen sorunları ve hataları giderir.

  1. Amazon SageMaker modelleri oluşturun

Daha sonra, şunu kullanıyoruz: SageMaker Python SDK'sı PyTorch modelleri oluşturmak için. PyTorch modeli oluştururken ortam değişkenlerini eklemeyi unutmamak önemlidir. Varsayılan olarak TorchServe, kullanılan çıkarım türünden bağımsız olarak yalnızca 6 MB'a kadar olan dosya boyutlarını işleyebilir.

# Create a PyTorchModel for deployment
from sagemaker.pytorch.model import PyTorchModel

whisper_pytorch_model = PyTorchModel(
    model_data=model_uri,
    image_uri=image,
    role=role,
    entry_point="inference.py",
    source_dir='code',
    name=model_name,
    env = {
        'TS_MAX_REQUEST_SIZE': '100000000',
        'TS_MAX_RESPONSE_SIZE': '100000000',
        'TS_DEFAULT_RESPONSE_TIMEOUT': '1000'
    }
)

Aşağıdaki tabloda farklı PyTorch sürümlerinin ayarları gösterilmektedir:

iskelet Ortam Değişkenleri
PyTorch 1.8 (TorchServe'e dayalı) 'TS_MAX_REQUEST_SIZE': '100000000'
'TS_MAX_RESPONSE_SIZE': '100000000'
'TS_DEFAULT_RESPONSE_TIMEOUT': '1000'
PyTorch 1.4 (MMS'ye dayalı) 'MMS_MAX_REQUEST_SIZE': '1000000000'
'MMS_MAX_RESPONSE_SIZE': '1000000000'
'MMS_DEFAULT_RESPONSE_TIMEOUT': '900'
  1. Inference.py'de model yükleme yöntemini tanımlayın

gelenekte inference.py komut dosyasında, öncelikle CUDA özellikli bir GPU'nun olup olmadığını kontrol ederiz. Böyle bir GPU mevcutsa, o zaman 'cuda' cihaza DEVICE değişken; aksi takdirde, biz atarız 'cpu' cihaz. Bu adım, modelin verimli hesaplama için mevcut donanıma yerleştirilmesini sağlar. PyTorch modelini Whisper Python paketini kullanarak yüklüyoruz.

### PyTorch
DEVICE = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
def model_fn(model_dir):
    """
    Load and return the model
    """
    model = whisper.load_model(os.path.join(model_dir, 'base.pt'))
    model = model.to(DEVICE)
    return model

Sarılma Yüz çerçevesi

  1. Model yapıtlarını kaydet

İkinci seçenek kullanmaktır Sarılma Yüzün Fısıltısı uygulama. Model kullanılarak yüklenebilir. AutoModelForSpeechSeq2Seq transformatörler sınıfı Öğrenilebilir parametreler, aşağıdaki komut kullanılarak ikili (bin) dosyaya kaydedilir: save_pretrained yöntem. Hugging Face modelinin düzgün çalıştığından emin olmak için tokenizer ve ön işlemcinin ayrıca ayrı ayrı kaydedilmesi gerekir. Alternatif olarak, iki ortam değişkenini ayarlayarak doğrudan Hugging Face Hub'dan Amazon SageMaker'da bir model dağıtabilirsiniz: HF_MODEL_ID ve HF_TASK. Daha fazla bilgi için lütfen buna bakın web sayfası.

### Hugging Face
from transformers import WhisperTokenizer, WhisperProcessor, AutoModelForSpeechSeq2Seq

# Load the pre-trained model
model_name = "openai/whisper-base"
model = AutoModelForSpeechSeq2Seq.from_pretrained(model_name)
tokenizer = WhisperTokenizer.from_pretrained(model_name)
processor = WhisperProcessor.from_pretrained(model_name)

# Define a directory where you want to save the model
save_directory = "./model"

# Save the model to the specified directory
model.save_pretrained(save_directory)
tokenizer.save_pretrained(save_directory)
processor.save_pretrained(save_directory)

  1. DLC'yi seçin

PyTorch çerçevesine benzer şekilde, aynı kaynaktan önceden oluşturulmuş Hugging Face DLC'sini seçebilirsiniz. Link. En yeni Hugging Face transformatörlerini destekleyen ve GPU desteğini içeren bir DLC seçtiğinizden emin olun.

  1. Amazon SageMaker modelleri oluşturun

Benzer şekilde biz de kullanıyoruz SageMaker Python SDK'sı Sarılma Yüz modelleri oluşturmak için. Hugging Face Whisper modelinin, yalnızca 30 saniyeye kadar ses bölümlerini işleyebildiği varsayılan bir sınırlaması vardır. Bu sınırlamayı gidermek için şunları ekleyebilirsiniz: chunk_length_s Hugging Face modelini oluştururken ortam değişkenindeki parametreyi kullanın ve daha sonra modeli yüklerken bu parametreyi özel çıkarım komut dosyasına aktarın. Son olarak, ortam değişkenlerini, Hugging Face kapsayıcısı için yük boyutunu ve yanıt zaman aşımını artıracak şekilde ayarlayın.

# Create a HuggingFaceModel for deployment
from sagemaker.huggingface.model import HuggingFaceModel

whisper_hf_model = HuggingFaceModel(
    model_data=model_uri,
    role=role, 
    image_uri = image,
    entry_point="inference.py",
    source_dir='code',
    name=model_name,
    env = {
        "chunk_length_s":"30",
        'MMS_MAX_REQUEST_SIZE': '2000000000',
        'MMS_MAX_RESPONSE_SIZE': '2000000000',
        'MMS_DEFAULT_RESPONSE_TIMEOUT': '900'
    }
)

iskelet Ortam Değişkenleri

HuggingFace Çıkarım Kabı

(MMS'e dayalı)

'MMS_MAX_REQUEST_SIZE': '2000000000'
'MMS_MAX_RESPONSE_SIZE': '2000000000'
'MMS_DEFAULT_RESPONSE_TIMEOUT': '900'
  1. Inference.py'de model yükleme yöntemini tanımlayın

Hugging Face modeli için özel çıkarım komut dosyası oluştururken, bir ardışık düzen kullanıyoruz; chunk_length_s parametre olarak. Bu parametre, modelin çıkarım sırasında uzun ses dosyalarını verimli bir şekilde işlemesini sağlar.

### Hugging Face
DEVICE = "cuda:0" if torch.cuda.is_available() else "cpu"
chunk_length_s = int(os.environ.get('chunk_length_s'))
def model_fn(model_dir):
    """
    Load and return the model
    """
    model = pipeline(
        "automatic-speech-recognition",
        model=model_dir,
        chunk_length_s=chunk_length_s,
        device=DEVICE,
        )
    return model

Amazon SageMaker'da farklı çıkarım seçeneklerini keşfetme

Çıkarım seçeneklerini seçme adımları hem PyTorch hem de Hugging Face modelleri için aynıdır, bu nedenle aşağıda aralarında ayrım yapmayacağız. Ancak şunu belirtmekte fayda var ki, bu yazının yazıldığı sırada sunucusuz çıkarım SageMaker'ın seçeneği GPU'ları desteklemez ve sonuç olarak bu seçeneği bu kullanım durumu için hariç tutuyoruz.

  1. Gerçek zamanlı çıkarım

Modeli, milisaniyeler içinde yanıtlar sağlayan gerçek zamanlı bir uç nokta olarak dağıtabiliriz. Ancak bu seçeneğin 6 MB'ın altındaki girişlerin işlenmesiyle sınırlı olduğunu unutmamak önemlidir. Serileştiriciyi, giriş verilerini dağıtılan model için uygun bir formata dönüştürmekten sorumlu olan bir ses serileştiricisi olarak tanımlıyoruz. Çıkarım için ses dosyalarının hızlandırılmış işlenmesine olanak tanıyan bir GPU örneği kullanıyoruz. Çıkarım girişi, yerel depodan gelen bir ses dosyasıdır.

from sagemaker.serializers import DataSerializer
from sagemaker.deserializers import JSONDeserializer

# Define serializers and deserializer
audio_serializer = DataSerializer(content_type="audio/x-audio")
deserializer = JSONDeserializer()

# Deploy the model for real-time inference
endpoint_name = f'whisper-real-time-endpoint-{id}'

real_time_predictor = whisper_model.deploy(
    initial_instance_count=1,
    instance_type="ml.g4dn.xlarge",
    endpoint_name = endpoint_name,
    serializer=audio_serializer,
    deserializer = deserializer
    )

# Perform real-time inference
audio_path = "sample_audio.wav" 
response = real_time_predictor.predict(data=audio_path)

  1. Toplu dönüştürme işi

İkinci çıkarım seçeneği, 100 MB'a kadar giriş verilerini işleyebilen toplu dönüştürme işidir. Ancak bu yöntemin gecikmesi birkaç dakika sürebilir. Her örnek aynı anda yalnızca bir toplu isteği işleyebilir ve örneğin başlatılması ve kapatılması da birkaç dakika gerektirir. Çıkarım sonuçları bir Amazon Basit Depolama Hizmetine (Amazon S3) toplu dönüştürme işi tamamlandıktan sonra kovaya aktarın.

Toplu transformatörü yapılandırırken şunları eklediğinizden emin olun: max_payload = 100 Daha büyük yükleri etkili bir şekilde idare etmek için. Çıkarım girişi, bir ses dosyasına giden Amazon S3 yolu veya her biri 3 MB'tan küçük ses dosyalarının listesini içeren bir Amazon S100 Bucket klasörü olmalıdır.

Toplu Dönüşüm, girişteki Amazon S3 nesnelerini anahtara göre bölümlere ayırır ve Amazon S3 nesnelerini bulut sunucularıyla eşler. Örneğin, birden fazla ses dosyanız olduğunda, ölçeklenebilirliği geliştirmek için bir örnek input1.wav'ı işleyebilir ve başka bir örnek input2.wav adlı dosyayı işleyebilir. Toplu Dönüşüm yapılandırmanıza olanak tanır max_concurrent_transforms her bir transformatör konteynerine yapılan HTTP isteklerinin sayısını artırmak için. Ancak, ('nin değerininmax_concurrent_transforms* max_payload) 100 MB'ı aşmamalıdır.

# Create a transformer
whisper_transformer = whisper_model.transformer(
    instance_count = 1,
    instance_type = "ml.g4dn.xlarge", 
    output_path="s3://{}/{}/batch-transform/".format(bucket, prefix),
    max_payload = 100
)
# Start batch transform job
whisper_transformer.transform(data = data, job_name= job_name, wait = False)

  1. asenkron çıkarım

Son olarak Amazon SageMaker Eşzamansız Çıkarım, birden fazla isteği eş zamanlı olarak işlemek için idealdir, orta düzeyde gecikme sunar ve 1 GB'a kadar giriş verilerini destekler. Bu seçenek, uç nokta için bir otomatik ölçeklendirme grubunun yapılandırılmasına olanak tanıyarak mükemmel ölçeklenebilirlik sağlar. İsteklerde bir artış meydana geldiğinde, trafiği idare edecek şekilde otomatik olarak ölçeklenir ve tüm istekler işlendikten sonra uç nokta, maliyetlerden tasarruf etmek için 0'a kadar ölçeklenir.

Eşzamansız çıkarım kullanılarak sonuçlar otomatik olarak bir Amazon S3 klasörüne kaydedilir. İçinde AsyncInferenceConfigbaşarılı veya başarısız tamamlamalara ilişkin bildirimleri yapılandırabilirsiniz. Giriş yolu, ses dosyasının Amazon S3 konumunu işaret eder. Ek ayrıntılar için lütfen aşağıdaki koda bakın. GitHub.

from sagemaker.async_inference import AsyncInferenceConfig

# Create an AsyncInferenceConfig object
async_config = AsyncInferenceConfig(
    output_path=f"s3://{bucket}/{prefix}/output", 
    max_concurrent_invocations_per_instance = 4,
    # notification_config = {
            #   "SuccessTopic": "arn:aws:sns:us-east-2:123456789012:MyTopic",
            #   "ErrorTopic": "arn:aws:sns:us-east-2:123456789012:MyTopic",
    #}, #  Notification configuration 
)

# Deploy the model for async inference
endpoint_name = f'whisper-async-endpoint-{id}'
async_predictor = whisper_model.deploy(
    async_inference_config=async_config,
    initial_instance_count=1, 
    instance_type ='ml.g4dn.xlarge',
    endpoint_name = endpoint_name
)

# Perform async inference
initial_args = {'ContentType':"audio/x-audio"}
response = async_predictor.predict_async(initial_args = initial_args, input_path=input_path)

İsteğe bağlı: Daha önce de belirtildiği gibi, eşzamansız çıkarım uç noktası için, çıkarım isteklerinde ani bir artışın üstesinden gelmesine olanak tanıyan bir otomatik ölçeklendirme grubu yapılandırma seçeneğimiz vardır. Bunda bir kod örneği verilmiştir GitHub deposu. Aşağıdaki şemada, iki ölçümün görüntülendiği bir çizgi grafiği gözlemleyebilirsiniz: Amazon Bulut İzleme: ApproximateBacklogSize ve ApproximateBacklogSizePerInstance. Başlangıçta 1000 istek tetiklendiğinde, çıkarımı gerçekleştirmek için yalnızca bir örnek mevcuttu. Üç dakika boyunca biriktirme listesi boyutu sürekli olarak üçü aştı (lütfen bu sayıların yapılandırılabileceğini unutmayın) ve otomatik ölçeklendirme grubu, biriktirmeyi verimli bir şekilde temizlemek için ek örnekleri döndürerek yanıt verdi. Bu da önemli bir düşüşe neden oldu ApproximateBacklogSizePerInstancebirikmiş taleplerin ilk aşamaya göre çok daha hızlı işlenmesine olanak tanır.

Şekil 2. Amazon CloudWatch ölçümlerindeki zamansal değişiklikleri gösteren çizgi grafik

Çıkarım seçenekleri için karşılaştırmalı analiz

Farklı çıkarım seçeneklerine yönelik karşılaştırmalar, yaygın ses işleme kullanım senaryolarına dayanmaktadır. Gerçek zamanlı çıkarım, en yüksek çıkarım hızını sunar ancak yük boyutunu 6 MB ile sınırlandırır. Bu çıkarım türü, kullanıcıların sesli komutlar veya sözlü talimatlar kullanarak cihazları veya yazılımı kontrol ettiği veya bunlarla etkileşime girdiği sesli komut sistemleri için uygundur. Sesli komutların boyutu genellikle küçüktür ve kopyalanan komutların sonraki eylemleri hemen tetikleyebilmesini sağlamak için düşük çıkarım gecikmesi çok önemlidir. Toplu Dönüştürme, her ses dosyasının boyutunun 100 MB'ın altında olduğu ve hızlı çıkarım yanıt sürelerine yönelik özel bir gereksinimin olmadığı zamanlanmış çevrimdışı görevler için idealdir. Eşzamansız çıkarım, 1 GB'a kadar yüklemelere izin verir ve orta düzeyde çıkarım gecikmesi sunar. Bu çıkarım türü, daha büyük ses dosyalarının işlenmesi gereken filmlerin, TV dizilerinin ve kayıtlı konferansların yazıya dönüştürülmesi için çok uygundur.

Hem gerçek zamanlı hem de eşzamansız çıkarım seçenekleri, otomatik ölçeklendirme yetenekleri sunarak uç nokta örneklerinin istek hacmine göre otomatik olarak ölçeklendirilmesine veya küçültülmesine olanak tanır. Otomatik ölçeklendirme, hiçbir isteğin olmadığı durumlarda gereksiz örnekleri ortadan kaldırarak, aktif olarak kullanılmayan, sağlanan örneklerle ilişkili maliyetlerden kaçınmanıza yardımcı olur. Ancak gerçek zamanlı çıkarım için en az bir kalıcı örneğin tutulması gerekir; bu da uç noktanın sürekli çalışması durumunda daha yüksek maliyetlere yol açabilir. Buna karşılık, eşzamansız çıkarım, kullanılmadığında örnek hacminin 0'a düşürülmesine olanak tanır. Bir toplu dönüştürme işini yapılandırırken, işi işlemek için birden fazla örnek kullanmak ve bir örneğin birden fazla isteği işlemesini sağlamak için max_concurrent_transforms'u ayarlamak mümkündür. Bu nedenle, her üç çıkarım seçeneği de mükemmel ölçeklenebilirlik sunar.

Temizlemek

Çözümü kullanmayı tamamladığınızda, ek maliyet oluşmasını önlemek için SageMaker uç noktalarını kaldırdığınızdan emin olun. Sırasıyla gerçek zamanlı ve eşzamansız çıkarım uç noktalarını silmek için sağlanan kodu kullanabilirsiniz.

# Delete real-time inference endpoint
real_time_predictor.delete_endpoint()

# Delete asynchronous inference endpoint
async_predictor.delete_endpoint()

Sonuç

Bu yazıda size ses işleme için makine öğrenimi modellerinin dağıtımının çeşitli sektörlerde nasıl giderek daha önemli hale geldiğini gösterdik. Whisper modelini örnek alarak açık kaynaklı ASR modellerinin Amazon SageMaker üzerinde PyTorch veya Hugging Face yaklaşımlarını kullanarak nasıl barındırılacağını gösterdik. Araştırma, Amazon SageMaker'daki çeşitli çıkarım seçeneklerini kapsadı ve ses verilerinin verimli bir şekilde işlenmesi, tahminler yapılması ve maliyetlerin etkin bir şekilde yönetilmesine ilişkin öngörüler sundu. Bu yazı, sesle ilgili görevler için Whisper modelinden yararlanmak ve çıkarım stratejileri konusunda bilinçli kararlar almak isteyen araştırmacılar, geliştiriciler ve veri bilimcileri için bilgi sağlamayı amaçlamaktadır.

Modellerin SageMaker'da dağıtılmasına ilişkin daha ayrıntılı bilgi için lütfen buna bakın Geliştirici kılavuzu. Ayrıca Whisper modeli SageMaker JumpStart kullanılarak dağıtılabilir. Ek ayrıntılar için lütfen kontrol edin Otomatik konuşma tanımaya yönelik fısıltı modelleri artık Amazon SageMaker JumpStart'ta mevcut sonrası.

Bu projenin not defterine ve koduna göz atmaktan çekinmeyin. GitHub ve yorumunuzu bizimle paylaşın.


Yazar Hakkında

Ying Hou, Doktora, AWS'de Makine Öğrenimi Prototipleme Mimarıdır. Başlıca ilgi alanları GenAI, Bilgisayarla Görme, NLP ve zaman serisi veri tahminine odaklanarak Derin Öğrenmeyi kapsamaktadır. Boş zamanlarında ailesiyle kaliteli anlar geçirmekten, kendini romanlara kaptırmaktan ve Birleşik Krallık'taki milli parklarda yürüyüş yapmaktan hoşlanıyor.

spot_img

En Son İstihbarat

spot_img