जेफिरनेट लोगो

कोड की दो पंक्तियों के साथ अमेज़ॅन सेजमेकर जम्पस्टार्ट में फाउंडेशन मॉडल को तैनात और फाइन-ट्यून करें अमेज़न वेब सेवाएँ

दिनांक:

हम इसके सरलीकृत संस्करण की घोषणा करते हुए उत्साहित हैं अमेज़न SageMaker जम्पस्टार्ट एसडीके जो फाउंडेशन मॉडल बनाने, प्रशिक्षित करने और तैनात करने को आसान बनाता है। भविष्यवाणी के लिए कोड भी सरल बनाया गया है। इस पोस्ट में, हम प्रदर्शित करते हैं कि आप कोड की कुछ पंक्तियों में फाउंडेशन मॉडल का उपयोग शुरू करने के लिए सरलीकृत सेजमेकर जम्पस्टार्ट एसडीके का उपयोग कैसे कर सकते हैं।

तैनाती और प्रशिक्षण के लिए सरलीकृत सेजमेकर जम्पस्टार्ट एसडीके के बारे में अधिक जानकारी के लिए देखें जम्पस्टार्टमॉडल वर्ग के साथ कम-कोड परिनियोजन और जम्पस्टार्टएस्टिमेटर क्लास के साथ लो-कोड फ़ाइन-ट्यूनिंग, क्रमशः।

समाधान अवलोकन

सेजमेकर जंपस्टार्ट आपको मशीन लर्निंग (एमएल) शुरू करने में मदद करने के लिए विभिन्न प्रकार की समस्या के लिए पूर्व-प्रशिक्षित, ओपन-सोर्स मॉडल प्रदान करता है। आप तैनाती से पहले इन मॉडलों को क्रमिक रूप से प्रशिक्षित और परिष्कृत कर सकते हैं। जंपस्टार्ट समाधान टेम्पलेट भी प्रदान करता है जो सामान्य उपयोग के मामलों के लिए बुनियादी ढांचा स्थापित करता है, और एमएल के लिए निष्पादन योग्य उदाहरण नोटबुक प्रदान करता है अमेज़न SageMaker. आप सेजमेकर जंपस्टार्ट लैंडिंग पृष्ठ के माध्यम से पूर्व-प्रशिक्षित मॉडल, समाधान टेम्पलेट और उदाहरणों तक पहुंच सकते हैं अमेज़ॅन सैजमेकर स्टूडियो या सेजमेकर पायथन एसडीके का उपयोग करें।

सेजमेकर जम्पस्टार्ट एसडीके की नई सुविधाओं को प्रदर्शित करने के लिए, हम आपको दिखाते हैं कि पूर्व-प्रशिक्षित का उपयोग कैसे करें फ़्लान T5 XL सारांश कार्यों के लिए पाठ निर्माण के लिए हगिंग फेस से मॉडल। हम यह भी दिखाते हैं कि कैसे, कोड की कुछ पंक्तियों में, आप सारांश कार्यों के लिए फ़्लान टी5 एक्सएल मॉडल को ठीक कर सकते हैं। आप टेक्स्ट जेनरेशन के लिए किसी अन्य मॉडल का उपयोग कर सकते हैं जैसे लामा2, बाज़या, मिस्ट्रल एआई.

आप इस समाधान के लिए फ़्लान T5 XL का उपयोग करके नोटबुक पा सकते हैं गीथहब रेपो.

मॉडल को तैनात करें और लागू करें

सेजमेकर जम्पस्टार्ट पर होस्ट किए गए फाउंडेशन मॉडल में मॉडल आईडी हैं। मॉडल आईडी की पूरी सूची के लिए, देखें पूर्व-प्रशिक्षित मॉडल टेबल के साथ बिल्ट-इन एल्गोरिदम. इस पोस्ट के लिए, हम फ़्लान T5 XL टेक्स्ट जेनरेशन मॉडल की मॉडल आईडी का उपयोग करते हैं। हम मॉडल ऑब्जेक्ट को इंस्टेंट करते हैं और इसे कॉल करके सेजमेकर एंडपॉइंट पर तैनात करते हैं deploy तरीका। निम्नलिखित कोड देखें:

from sagemaker.jumpstart.model import JumpStartModel # Replace with larger model if needed
pretrained_model = JumpStartModel(model_id="huggingface-text2text-flan-t5-base")
pretrained_predictor = pretrained_model.deploy()

इसके बाद, हम फ़्लान टी5 एक्सएल मॉडल का उपयोग करके दिए गए टेक्स्ट का सारांश बनाने के लिए मॉडल को लागू करते हैं। नया एसडीके इंटरफ़ेस आपके लिए मॉडल को लागू करना आसान बनाता है: आपको बस भविष्यवक्ता को पाठ पास करने की आवश्यकता है और यह मॉडल से पायथन डिक्शनरी के रूप में प्रतिक्रिया लौटाता है।

text = """Summarize this content - Amazon Comprehend uses natural language processing (NLP) to extract insights about the content of documents. It develops insights by recognizing the entities, key phrases, language, sentiments, and other common elements in a document. Use Amazon Comprehend to create new products based on understanding the structure of documents. For example, using Amazon Comprehend you can search social networking feeds for mentions of products or scan an entire document repository for key phrases. You can access Amazon Comprehend document analysis capabilities using the Amazon Comprehend console or using the Amazon Comprehend APIs. You can run real-time analysis for small workloads or you can start asynchronous analysis jobs for large document sets. You can use the pre-trained models that Amazon Comprehend provides, or you can train your own custom models for classification and entity recognition. """
query_response = pretrained_predictor.predict(text)
print(query_response["generated_text"])

सारांशीकरण कार्य का आउटपुट निम्नलिखित है:

Understand how Amazon Comprehend works. Use Amazon Comprehend to analyze documents.

मॉडल को फाइन-ट्यून करें और तैनात करें

सेजमेकर जम्पस्टार्ट एसडीके आपको एक नई कक्षा प्रदान करता है, JumpStartEstimator, जो फ़ाइन-ट्यूनिंग को सरल बनाता है। आप फाइन-ट्यूनिंग डेटा का स्थान प्रदान कर सकते हैं और वैकल्पिक रूप से सत्यापन डेटासेट भी पास कर सकते हैं। मॉडल को फाइन-ट्यून करने के बाद, फाइन-ट्यून किए गए मॉडल को तैनात करने के लिए एस्टिमेटर ऑब्जेक्ट की तैनाती विधि का उपयोग करें:

from sagemaker.jumpstart.estimator import JumpStartEstimator estimator = JumpStartEstimator( model_id=model_id,
)
estimator.set_hyperparameters(instruction_tuned="True", epoch="3", max_input_length="1024")
estimator.fit({"training": train_data_location})
finetuned_predictor = estimator.deploy()

सेजमेकर एसडीके में नई कक्षाओं को अनुकूलित करें

नया एसडीके कई मापदंडों को डिफ़ॉल्ट करके जंपस्टार्ट मॉडल को तैनात करना और फाइन-ट्यून करना आसान बनाता है। आपके पास अभी भी डिफ़ॉल्ट को ओवरराइड करने और अपनी आवश्यकताओं के आधार पर तैनाती और आमंत्रण को अनुकूलित करने का विकल्प है। उदाहरण के लिए, आप अपने परिवेश और उपयोग के मामले के लिए इनपुट पेलोड प्रारूप प्रकार, इंस्टेंस प्रकार, वीपीसी कॉन्फ़िगरेशन और बहुत कुछ अनुकूलित कर सकते हैं।

निम्नलिखित कोड दिखाता है कि अपने मॉडल को तैनात करते समय इंस्टेंस प्रकार को कैसे ओवरराइड करें:

finetuned_predictor = estimator.deploy(instance_type='ml.g5.2xlarge')

सेजमेकर जम्पस्टार्ट एसडीके deploy फ़ंक्शन स्वचालित रूप से आपके लिए एक डिफ़ॉल्ट सामग्री प्रकार और क्रमांकन का चयन करेगा। यदि आप इनपुट पेलोड का प्रारूप प्रकार बदलना चाहते हैं, तो आप इसका उपयोग कर सकते हैं serializers और content_types ऑब्जेक्ट को पास करके आपके लिए उपलब्ध विकल्पों का आत्मनिरीक्षण करें model_id आप जिस मॉडल के साथ काम कर रहे हैं। निम्नलिखित कोड में, हम सेटिंग करके पेलोड इनपुट फॉर्मेट को JSON के रूप में सेट करते हैं JSONSerializer as serializer और application/json as content_type:

from sagemaker import serializers
from sagemaker import content_types serializer_options = serializers.retrieve_options(model_id=model_id, model_version=model_version)
content_type_options = content_types.retrieve_options(model_id=model_id, model_version=model_version) pretrained_predictor.serializer = serializers.JSONSerializer()
pretrained_predictor.content_type = 'application/json'

इसके बाद, आप JSON प्रारूप के पेलोड के साथ सारांश कार्य के लिए फ़्लान T5 XL मॉडल को लागू कर सकते हैं। निम्नलिखित कोड में, हम प्रतिक्रियाओं को अधिक सटीक बनाने के लिए JSON पेलोड में अनुमान पैरामीटर भी पास करते हैं:

from sagemaker import serializers input_text= """Summarize this content - Amazon Comprehend uses natural language processing (NLP) to extract insights about the content of documents. It develops insights by recognizing the entities, key phrases, language, sentiments, and other common elements in a document. Use Amazon Comprehend to create new products based on understanding the structure of documents. For example, using Amazon Comprehend you can search social networking feeds for mentions of products or scan an entire document repository for key phrases.
You can access Amazon Comprehend document analysis capabilities using the Amazon Comprehend console or using the Amazon Comprehend APIs. You can run real-time analysis for small workloads or you can start asynchronous analysis jobs for large document sets. You can use the pre-trained models that Amazon Comprehend provides, or you can train your own custom models for classification and entity recognition. """ parameters = { "max_length": 600, "num_return_sequences": 1, "top_p": 0.01, "do_sample": False,
} payload = {"text_inputs": input_text, **parameters} #JSON Input format pretrained_predictor.serializer = serializers.JSONSerializer()
query_response = pretrained_predictor.predict(payload)
print(query_response["generated_texts"][0])

यदि आप होस्टिंग और फ़ाइन-ट्यूनिंग के लिए इनपुट और अन्य विकल्पों को अनुकूलित करने के अधिक तरीकों की तलाश कर रहे हैं, तो इसके लिए दस्तावेज़ देखें जम्पस्टार्टमॉडल और जम्पस्टार्टएस्टिमेटर कक्षाएं।

निष्कर्ष

इस पोस्ट में, हमने आपको दिखाया कि आप कोड की कुछ पंक्तियों में कार्य-आधारित और फाउंडेशन मॉडल के निर्माण, प्रशिक्षण और तैनाती के लिए सरलीकृत सेजमेकर जम्पस्टार्ट एसडीके का उपयोग कैसे कर सकते हैं। हमने जैसे नई कक्षाओं का प्रदर्शन किया JumpStartModel और JumpStartEstimator उदाहरण के तौर पर हगिंग फेस फ़्लान T5-XL मॉडल का उपयोग करना। आप सामग्री लेखन, कोड निर्माण, प्रश्न उत्तर, सारांश, वर्गीकरण, सूचना पुनर्प्राप्ति, आदि जैसे उपयोग के मामलों के लिए किसी भी अन्य सेजमेकर जम्पस्टार्ट फाउंडेशन मॉडल का उपयोग कर सकते हैं। सेजमेकर जम्पस्टार्ट के साथ उपलब्ध मॉडलों की पूरी सूची देखने के लिए, देखें पूर्व-प्रशिक्षित मॉडल टेबल के साथ बिल्ट-इन एल्गोरिदम. सेजमेकर जम्पस्टार्ट भी सपोर्ट करता है कार्य-विशिष्ट मॉडल कई लोकप्रिय समस्या प्रकारों के लिए।

हमें उम्मीद है कि सेजमेकर जम्पस्टार्ट एसडीके का सरलीकृत इंटरफ़ेस आपको जल्दी से आरंभ करने में मदद करेगा और आपको तेजी से वितरण करने में सक्षम करेगा। हम यह सुनने के लिए उत्सुक हैं कि आप रोमांचक एप्लिकेशन बनाने के लिए सरलीकृत सेजमेकर जम्पस्टार्ट एसडीके का उपयोग कैसे करते हैं!


लेखक के बारे में

इवान क्राविट्ज़ अमेज़ॅन वेब सर्विसेज में एक सॉफ्टवेयर इंजीनियर है, जो सेजमेकर जम्पस्टार्ट पर काम कर रहा है। वह क्लाउड कंप्यूटिंग के साथ मशीन लर्निंग के संगम में रुचि रखते हैं। इवान ने अपनी स्नातक की डिग्री कॉर्नेल विश्वविद्यालय से और स्नातकोत्तर की डिग्री कैलिफोर्निया विश्वविद्यालय, बर्कले से प्राप्त की। 2021 में, उन्होंने ICLR सम्मेलन में प्रतिकूल तंत्रिका नेटवर्क पर एक पेपर प्रस्तुत किया। अपने खाली समय में, इवान को न्यूयॉर्क शहर में खाना बनाना, यात्रा करना और दौड़ना पसंद है।

रचना चड्ढा एडब्ल्यूएस में सामरिक खातों में प्रधान समाधान वास्तुकार एआई/एमएल है। रचना एक आशावादी है जो मानती है कि एआई का नैतिक और जिम्मेदार उपयोग भविष्य में समाज को बेहतर बना सकता है और आर्थिक और सामाजिक समृद्धि ला सकता है। अपने खाली समय में, रचना को अपने परिवार के साथ समय बिताना, लंबी पैदल यात्रा करना और संगीत सुनना पसंद है।

जोनाथन गिनीगने AWS में Amazon SageMaker जम्पस्टार्ट के साथ एक वरिष्ठ सॉफ्टवेयर इंजीनियर हैं। उन्होंने कोलंबिया विश्वविद्यालय से मास्टर डिग्री प्राप्त की। उनकी रुचि मशीन लर्निंग, वितरित सिस्टम और क्लाउड कंप्यूटिंग के साथ-साथ एआई के उपयोग को लोकतांत्रिक बनाने तक है। जोनाथन मूल रूप से फ्रांस का रहने वाला है और अब ब्रुकलिन, NY में रहता है।

डॉ आशीष खेतानी Amazon SageMaker बिल्ट-इन एल्गोरिदम के साथ एक वरिष्ठ एप्लाइड साइंटिस्ट हैं और मशीन लर्निंग एल्गोरिदम विकसित करने में मदद करते हैं। उन्होंने इलिनोइस विश्वविद्यालय उरबाना-शैंपेन से पीएचडी की उपाधि प्राप्त की। वह मशीन लर्निंग और सांख्यिकीय अनुमान में एक सक्रिय शोधकर्ता हैं, और उन्होंने NeurIPS, ICML, ICLR, JMLR, ACL और EMNLP सम्मेलनों में कई पत्र प्रकाशित किए हैं।

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी