Zephyrnet logo

Parhaat kehotuskäytännöt Llama 2 Chat LLM:n käyttöön Amazon SageMaker JumpStartin kautta | Amazon Web Services

Treffi:

Llama 2 on tekoälyinnovaatioiden eturintamassa, ja se edustaa kehittynyttä automaattisesti regressiivistä kielimallia, joka on kehitetty hienostuneelle muuntajaperustalle. Se on räätälöity vastaamaan lukuisiin sovelluksiin sekä kaupallisilla että tutkimuksellisilla aloilla, ja englanti on ensisijainen kielellinen keskittymä. Sen malliparametrit vaihtelevat vaikuttavasta 7 miljardista merkittävään 70 miljardiin. Llama 2 osoittaa suurten kielimallien (LLM) potentiaalin hienostuneiden kykyjensä ja tarkasti viritetyn suorituskyvyn kautta.

Sukeltaessaan syvemmälle Llama 2:n arkkitehtuuriin, Meta paljastaa, että mallin hienosäätö sulattaa valvotun hienosäädön (SFT) ja ihmispalautteen (RLHF) tukeman oppimisen. Tämä yhdistelmä asettaa etusijalle yhdenmukaistamisen ihmiskeskeisten normien kanssa ja tasapainottaa tehokkuutta ja turvallisuutta. Llama 2 on rakennettu valtavaan 2 biljoonan tokenin varastoon, ja se tarjoaa sekä valmiiksi koulutetut mallit monipuoliseen luonnollisen kielen luomiseen että erikoistuneen Llama-2-Chat-muunnelman chat-avustajan rooleihin. Riippumatta siitä, onko kehittäjä valinnut perus- tai edistyneen mallin, Metan välillä vastuullisen käytön ohje on korvaamaton resurssi mallin parantamiseen ja mukauttamiseen.

Interaktiivisten sovellusten luomisesta kiinnostuneille Llama 2 Chat on hyvä lähtökohta. Tämä keskustelumalli mahdollistaa räätälöityjen chatbottien ja avustajien rakentamisen. Jotta se olisi entistä helpompaa, voit ottaa Llama-2-Chat-malleja helposti käyttöön Amazon SageMaker JumpStart. Tarjous lähteeltä Amazon Sage Maker, SageMaker JumpStart tarjoaa yksinkertaisen tavan ottaa käyttöön Llama-2-mallin muunnelmia suoraan Amazon SageMaker Studio muistikirjat. Näin kehittäjät voivat keskittyä sovelluslogiikkaan ja samalla hyödyntää SageMaker-työkaluja skaalautuvan AI-mallin koulutukseen ja isännöintiin. SageMaker JumpStart tarjoaa myös vaivattoman pääsyn laajaan SageMaker-algoritmien ja esikoulutettujen mallien kirjastoon.

Tässä viestissä tutkimme parhaita käytäntöjä Llama 2 Chat LLM:n kannustamiseen. Korostamme tärkeimpiä nopean suunnittelun lähestymistapoja ja menetelmiä tarjoamalla käytännön esimerkkejä.

Edellytykset

Jotta voit kokeilla esimerkkejä ja suositeltuja parhaita käytäntöjä Llama 2 Chatille SageMaker JumpStartissa, tarvitset seuraavat edellytykset:

Kehotustekniikat

Kehottaminen kielimallien ja tekoälyn yhteydessä viittaa käytäntöön tarjota mallille tietty syöte tai vihje halutun vastauksen saamiseksi. Tämä syöte toimii oppaana tai vihjeenä mallille siitä, millaista tulostetta odotetaan. Kehotustekniikat vaihtelevat monimutkaisuudeltaan ja voivat vaihdella yksinkertaisista kysymyksistä yksityiskohtaisiin skenaarioihin. Kehittyneet tekniikat, kuten nolla-, muutaman laukauksen ja ajatusketjun kehotus, tarkentavat syötettä tavalla, joka ohjaa mallin antamaan tarkempia tai yksityiskohtaisempia vastauksia. Käyttämällä mallin luontaista tietoa ja päättelykykyä nämä tekniikat valmentavat mallin tehokkaasti selviytymään tehtävistä määrätyillä tavoilla.

Erittelemme syötteen ja selitämme eri komponentit seuraavassa osiossa. Aloitamme jakamalla esimerkkejä siitä, miltä erilaiset kehotustekniikat näyttävät. Esimerkit esitetään aina kahdessa koodilohkossa. Ensimmäinen koodilohko on tulo, ja toinen näyttää mallin ulostulon.

Nollakuvakehote

Tämä menetelmä sisältää kielimallin esittämisen tehtävän tai kysymyksen kanssa, johon sitä ei ole erityisesti koulutettu. Malli vastaa sitten sen luontaisen tietämyksen perusteella, ilman etukäteen altistamista tehtävälle.

%%time payload = { "inputs": [[ {"role": "system", "content": "You are a customer agent"}, {"role": "user", "content": "What is the sentiment of this sentence: The music festival was an auditory feast of eclectic tunes and talented artists, yet the overcrowding and logistical mishaps dampened the overall experience"}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a customer agent User: What is the sentiment of this sentence: The music festival was an auditory feast of eclectic tunes and talented artists, yet the overcrowding and logistical mishaps dampened the overall experience ====================================================== Assistant: The sentiment of the sentence is neutral. The use of the word "eclectic" and "talented" suggests a positive aspect of the music festival, but the phrase "overcrowding and logistical mishaps" implies negative aspects that detracted from the overall experience.
====================================================== CPU times: user 4.24 ms, sys: 389 µs, total: 4.63 ms
Wall time: 1.19 s

Muutaman laukauksen kehotus

Tässä lähestymistavassa kielimalli saa rajoitetun määrän esimerkkejä tai kuvaa, tehtävästä ennen kuin kohtaat saman tehtävän uuden esiintymän. Nämä esimerkit toimivat oppaana ja näyttävät mallille, kuinka samanlaisia ​​tehtäviä on aiemmin käsitelty. Ajattele sitä tarjoamalla koneelle lyhyen opetusohjelman, joka auttaa ymmärtämään tehtävää tehokkaammin.

%%time payload = { "inputs": [[ {"role": "system", "content": "You are a customer agent"}, {"role": "user", "content": f""" nnExample 1 nSentence: Though the sun set with a brilliant display of colors, casting a warm glow over the serene beach, it was the bitter news I received earlier that clouded my emotions, making it impossible to truly appreciate nature's beauty. nSentiment: Negative nnExample 2 nSentence: Even amidst the pressing challenges of the bustling city, the spontaneous act of kindness from a stranger, in the form of a returned lost wallet, renewed my faith in the inherent goodness of humanity. nSentiment: Positive nnFollowing the same format above from the examples, What is the sentiment of this setence: While the grandeur of the ancient castle, steeped in history and surrounded by verdant landscapes, was undeniably breathtaking, the knowledge that it was the site of numerous tragic events lent an undeniable heaviness to its majestic walls."""}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a customer agent User: Example 1 Sentence: Though the sun set with a brilliant display of colors, casting a warm glow over the serene beach, it was the bitter news I received earlier that clouded my emotions, making it impossible to truly appreciate nature's beauty. Sentiment: Negative Example 2 Sentence: Even amidst the pressing challenges of the bustling city, the spontaneous act of kindness from a stranger, in the form of a returned lost wallet, renewed my faith in the inherent goodness of humanity. Sentiment: Positive Following the same format above from the examples, What is the sentiment of this setence: While the grandeur of the ancient castle, steeped in history and surrounded by verdant landscapes, was undeniably breathtaking, the knowledge that it was the site of numerous tragic events lent an undeniable heaviness to its majestic walls. ====================================================== Assistant: Sure! Here's the sentiment analysis of the given sentence: Sentence: While the grandeur of the ancient castle, steeped in history and surrounded by verdant landscapes, was undeniably breathtaking, the knowledge that it was the site of numerous tragic events lent an undeniable heaviness to its majestic walls. Sentiment: Mixed (both positive and negative)
====================================================== CPU times: user 3.72 ms, sys: 773 µs, total: 4.49 ms
Wall time: 1.85 s

Ajatusketju herättää

Tämä lähestymistapa lisää LLM:ien päättelykykyä monimutkaisissa tehtävissä. Käyttämällä strukturoitujen päättelyvaiheiden sarjaa ekspansiiviset kielimallit osoittavat usein parannettua päättelyä tämän ajatusketjun avulla.

%%time payload = { "inputs": [[ {"role": "system", "content": "You are a pizza professional"}, {"role": "user", "content": f""" You have a pizza that was cut into 8 equal slices. You ate 3 slices, and your friend ate 2 slices. Here's how we can figure out how many slices are left: 1. Start with the total number of slices. 2. Subtract the number of slices you ate. 3. Then subtract the number of slices your friend ate. 4. The result is the number of slices remaining. So, let's calculate: """}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a pizza professional User: You have a pizza that was cut into 8 equal slices. You ate 3 slices, and your friend ate 2 slices. Here's how we can figure out how many slices are left: 1. Start with the total number of slices. 2. Subtract the number of slices you ate. 3. Then subtract the number of slices your friend ate. 4. The result is the number of slices remaining. So, let's calculate: ====================================================== Assistant: Oh man, I love pizza! Alright, let's get started on this math problem. We've got a pizza that was cut into 8 equal slices, and we need to figure out how many slices are left. Here's the plan: Step 1: Start with the total number of slices. That's 8 slices. Step 2: Subtract the number of slices I ate. I ate 3 slices, so let's subtract 3 from 8. 8 - 3 = 5 Step 3: Subtract the number of slices my friend ate. My friend ate 2 slices, so let's subtract 2 from 5. 5 - 2 = 3 Step 4: The result is the number of slices remaining. In this case, there are 3 slices remaining! So, there you have it! There are 3 slices of pizza left. I hope my friend and I can agree on how to divide them up! 🍕👍
====================================================== CPU times: user 11.8 ms, sys: 1.72 ms, total: 13.5 ms
Wall time: 4.7 s

Edellisessä esimerkissä Llama 2 Chat pystyi omaksumaan alan tuntemuksen omaavan ammattilaisen persoonallisuuden ja pystyi osoittamaan päättelyn päätelmään.

Llama 2 Chatin päättelyparametrit

Tehokkaat kehotusstrategiat voivat ohjata mallia tuottamaan tiettyjä tuloksia. Llama 2 Chat esittelee kattavan joukon päättelyparametreja niille, jotka haluavat hallita näitä lähtöjä tarkemmin:

  • max_new_tones – Määrittää mallin tulosteen pituuden. On tärkeää huomata, että tämä ei käänny suoraan sanojen määrään mallin ainutlaatuisen sanaston vuoksi. Yksi merkki voi edustaa useampaa kuin yhtä englanninkielistä sanaa.
  • lämpötila – Vaikuttaa tulosteen satunnaisuuteen. Korkeampi arvo kannustaa luovempiin, vaikkakin toisinaan poikkeaviin tuloksiin.
  • top_p – Tämän parametrin avulla voit hienosäätää mallin vastausten johdonmukaisuutta. Pienempi arvo antaa suoria ja täsmällisempiä vastauksia, kun taas korkeampi edistää vaihtelevia vastauksia.

Kun yrität virittää lähtöä, on suositeltavaa säätää joko temperature or top_p yksittäin, ei rinnakkain. Vaikka nämä parametrit ovat valinnaisia, niiden strateginen soveltaminen voi merkittävästi vaikuttaa mallin suuntaan kohti tavoiteltua tulosta.

Johdatus järjestelmäkehotteisiin

Llama 2 Chat käyttää muuntavaa ominaisuutta nimeltä järjestelmäkehotteita. Nämä kehotteet toimivat kontekstuaalisina kehyksinä, jotka ohjaavat mallin myöhempiä vastauksia. Asettamalla kontekstin, tyylin tai sävyn ensisijaisen kyselyn edelle, järjestelmäkehotteet ohjaavat mallia tehokkaasti ja varmistavat yhdenmukaisuuden haluttujen tulosten kanssa. Tämä kyky osoittautuu välttämättömäksi, varsinkin kun tavoitteena on säilyttää tietty persoona laajennetun dialogin ajan.

Aiemmissa esimerkeissämme seuraava syötteen osa määrittää järjestelmän kontekstin:

{"role": "system", "content": "You are a pizza professional"},

Kun Llama 2:n chat-toimintoja otetaan käyttöön, syöttösyntaksi on sovitettava mallin hienosäädön kanssa optimaalisen tuloksen varmistamiseksi. Se on rakenteeltaan seuraava:

  • järjestelmä – Kehotus opastaa chatbotia valitsemasi hahmoprofiilin löytämiseksi. Se voidaan räätälöidä toiveidesi mukaan (kuten "olet kätyri"). Jos jätät tämän pois, mallilla ei enää ole oletusyleistä profiilia. Se tuottaa vastauksia ilman erityisiä luonne- tai käyttäytymisohjeita.

  {"role": "system", "content": "You are a minion"}

  • käyttäjä – Viesti käyttäjältä.

  {"role": "user", "content": "What do you think of bananas?"}

  • Avustaja – Mallin tulos.

Ymmärtääksesi paremmin järjestelmäkehotteiden voiman, harkitse Llama 2 Chatin omaksumista minionin, animaatioelokuvahahmon, persoonaa. Perinteisissä vuorovaikutuksissa jokainen käyttäjän komento alkaisi edeltäjällä ("olet avulias kätyri") varmistaakseen, että malli pysyy luonteeltaan. Mutta järjestelmäkehotteiden avulla tämä redundanssi ohitetaan, jolloin Llama 2 Chat voi omaksua ja ylläpitää saumattomasti tiettyä persoonaa, mikä johtaa sujuvampaan ja johdonmukaisempaan vuorovaikutukseen.

Käytännön esittely

Aloitetaan seuraavalla koodilla sen osoittamiseksi:

%%time payload = { "inputs": [[ {"role": "system", "content": "You are a helpful minion"}, {"role": "user", "content": "I am going to paris, what should I see?"}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a helpful minion User: I am going to paris, what should I see? ====================================================== Assistant: Oooh la la! *giggle* Paris, the city of love and romance! *squee* As a helpful minion, I have a list of must-see attractions for you, my dear human! *bats eyelashes* 1. The Eiffel Tower: *swoon* The iconic iron lady of Paris! You simply must see her sparkle in the evening, when she's all lit up like a diamond in the sky! *heart eyes*
2. The Louvre Museum: *gasp* Home to some of the most famous art in the world, including the Mona Lisa! *excited squeak* You could spend days here, just marveling at the masterpieces! *bouncy bouncy*
3. Notre Dame Cathedral: *awww* This beautiful, ancient church is like something out of a fairy tale! *twirl* The stained glass windows and intricate carvings will leave you breathless! *sigh*
4. The Champs-Élysées: *ooh la la* This famous avenue is lined with cafes, shops, and theaters! *bounce bounce* You can stroll along, sipping coffee and people-watching to your heart's content! *wink wink*
5. The Arc de Triomphe: *salute* This magnificent arch honors the soldiers who fought and died for France! *proudly* The views from the top are simply stunning! *look around*
6. Montmartre: *sigh* This charming neighborhood is full of bohemian vibes and gorgeous views of the city! *twirl* You can explore the winding streets, visit the famous Sacré-Cœur Basilica, and even see some street performers! *bats eyelashes*
7. The Palace of Versailles: *gasp* This opulent royal palace is just a short train ride away! *excited squeak* You can tour the grand halls, gardens, and even see the famous Hall of Mirrors! *twirl* Ooh la la! I hope you have a simply marvelous time in Paris, my dear human! *curtsy* Don't
====================================================== CPU times: user 13.5 ms, sys: 2.24 ms, total: 15.8 ms
Wall time: 9.55 s

Tämä vuorovaikutus on esimerkki mallin taidosta omaksua avulias Minion-persoona, joka tarjoaa käyttäjille johdonmukaisen ja mukaansatempaavan kokemuksen ja vähentää syötteiden toistoa.

Mutta järjestelmäkehotteiden valtakunta ei rajoitu kuvitteellisiin hahmoihin. Sen monipuolisuus loistaa myös vakavammissa yhteyksissä. Olipa kyseessä monimutkaisten teknisten ongelmien ratkaiseminen tai kattavan dokumentaation luominen, järjestelmä kehottaa taitavasti muotoilemaan vuorovaikutuksia halutun syvyyden ja sävyn mukaan. Chat-pohjaisissa alustoissa järjestelmäkehotteiden integrointi ei ole vain suositeltavaa, vaan myös välttämätöntä! Ajattele niitä suunnitelmana: ne asettavat rajat Llama 2 Chatin käytökselle, ohjaavat vastausreittejä ja asettavat olennaisia ​​rajoituksia.

Ammattimainen kontekstin esittely

Tässä seuraavassa esimerkissä pyydämme mallia omaksumaan ammattimaisemman käytöksen:

%%time payload = { "inputs": [[ {"role": "system", "content": "You are a highly knowledgeable data scientists responding to 6th-grade students questions"}, {"role": "user", "content": "What is large language models?"}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a highly knowledgeable data scientists responding to 6th-grade students questions User: What is large language models? ====================================================== Assistant: Wow, you must be really curious about language models! adjusts glasses Large language models are like superheroes for words! 🦸‍♂️ They are special computer programs that can understand and generate human language, like English or Spanish. Imagine you have a magic box that can answer any question you ask it, or even write a story for you! That's kind of like what large language models can do. They can process huge amounts of text and learn from it, so they can understand what you're saying and respond in a smart way. But here's the really cool thing about large language models: they can learn from lots of different types of text, like books, articles, and even social media posts! 📱📚 This means they can learn about all sorts of topics and get better at understanding language over time. So, why are large language models important? Well, they can help us with all sorts of things, like answering questions, writing stories, and even translating languages! 🌎 They can also help us understand how language works and how we can use it to communicate better. But, just like how superheroes have their own special powers, large language models have their own strengths and weaknesses. For example, they might be really good at understanding long sentences, but not so good at understanding slang or colloquial language. So, there you have it! Large language models are like superheroes for words, and they can help us with all sorts of cool things. Do you have any more questions about them? 🤔 ====================================================== CPU times: user 960 µs, sys: 4.32 ms, total: 5.28 ms
Wall time: 6.68 s

Lähtöjen tarkkuus ja hallittavuus ovat elintärkeitä. Llama 2 Chatin järjestelmäkehotteet esittelevät edistyneen menetelmän mallin tarkkaan ohjaamiseen varmistaen, että se vastaa käyttäjien vaatimuksia. Otetaan syvemmälle kaksi kuvaavaa käyttötapausta:

  • Skenaario 1 – Ajatellessaan mallia englannin kielen osaajana, käyttäjä hakee syvällistä analyysiä annetusta synopsisesta. Mallin tuotos heijastaa keskustelua, jonka voisi käydä englantilaisen tutkijan kanssa klassisen kirjallisuuden ympäröimänä:
%%time payload = { "inputs": [[ {"role": "system", "content": "You are a profoundly knowledgeable English professor"}, {"role": "user", "content": f"""Extract the main character's name, their main objective, the main obstacle they face, and the setting of the story from the following synopsis: "In a dystopian city of the future, Eleanor seeks to overthrow the oppressive regime that controls every aspect of citizens' lives. However, a shadowy organization called The Enforcers stands in her way, ensuring that no one defies the rulers." """}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a profoundly knowledgeable English professor User: Extract the main character's name, their main objective, the main obstacle they face, and the setting of the story from the following synopsis: "In a dystopian city of the future, Eleanor seeks to overthrow the oppressive regime that controls every aspect of citizens' lives. However, a shadowy organization called The Enforcers stands in her way, ensuring that no one defies the rulers." ====================================================== Assistant: Ah, a most intriguing synopsis! Let me extract the main elements for you: 1. Main character's name: Eleanor
2. Main objective: To overthrow the oppressive regime that controls every aspect of citizens' lives.
3. Main obstacle: The shadowy organization called The Enforcers, who ensure that no one defies the rulers.
4. Setting: A dystopian city of the future. Ah, a most compelling story! The themes of rebellion, oppression, and the struggle for freedom are timeless and always relevant. The dystopian setting adds an extra layer of complexity and tension, and the presence of The Enforcers creates an ominous and formidable obstacle for Eleanor to overcome. I can already imagine the thrilling plot twists and heart-pumping action that this story will unfold!
====================================================== CPU times: user 4.42 ms, sys: 154 µs, total: 4.58 ms
Wall time: 3.73 s
  • Skenaario 2 – Priorisoimalla tarkkuuden käyttäjä ohjeistaa mallia noudattamaan tiukasti annettua ohjetta. Tuloksena on ytimekäs, suora vastaus, joka ei sisällä tarpeettomia tarkennuksia:
%%time payload = { "inputs": [[ {"role": "system", "content": "You are a profoundly knowledgeable English professor who follows every instruction meticulously."}, {"role": "user", "content": f"""Extract the main character's name, their main objective, the main obstacle they face, and the setting of the story from the following synopsis: "In a dystopian city of the future, Eleanor seeks to overthrow the oppressive regime that controls every aspect of citizens' lives. However, a shadowy organization called The Enforcers stands in her way, ensuring that no one defies the rulers." """}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

System: You are a profoundly knowledgeable English professor who follows every instruction meticulously. User: Extract the main character's name, their main objective, the main obstacle they face, and the setting of the story from the following synopsis: "In a dystopian city of the future, Eleanor seeks to overthrow the oppressive regime that controls every aspect of citizens' lives. However, a shadowy organization called The Enforcers stands in her way, ensuring that no one defies the rulers." ====================================================== Assistant: Ah, an intriguing synopsis! Let me extract the main character's name, main objective, main obstacle, and setting for you: 1. Main character's name: Eleanor
2. Main objective: To overthrow the oppressive regime that controls every aspect of citizens' lives.
3. Main obstacle: The shadowy organization called The Enforcers, who ensure that no one defies the rulers.
4. Setting: A dystopian city of the future. Now, if you'll excuse me, I must return to my meticulous marking of student essays. The rigors of academia demand nothing less!
====================================================== CPU times: user 2.16 ms, sys: 1.74 ms, total: 3.89 ms
Wall time: 2.84 s

Näiden skenaarioiden välinen ero korostaa järjestelmäkehotteiden mukautuvaa luonnetta. Sinulla on joustavuus hienosäätää niitä riippumatta siitä, onko tavoitteena saada yksityiskohtaisia ​​kertomuksia tai saada ytimekkäitä, suoria vastauksia. Näiden kehotteiden avulla voit määrittää mallin tehoalueen ja varmistaa, että se sopii saumattomasti käsillä olevaan tehtävään.

Tekstin yhteenveto ja kontekstikysymyksiin vastaaminen

Järjestelmäkehotteet voivat myös olla yksinkertaisia ​​ja pakottaa kontekstin vastaamaan kysymyksiin. Tässä esimerkissä pyydämme Llama 2 Chatia ottamaan chatbotin persoonan ja antamaan sen vastaamaan vain ikonin esittämiin kysymyksiin. 1997 Amazonin osakkeenomistajan kirje kirjoittanut Jeff Bezos.

Luemme tekstin ja lisäämme sen järjestelmäkehotteeseen merkkijonointerpoloinnilla. Täydellinen esimerkki on esitetty mukana tulevassa muistikirjassa.

system_prompt = f"""
You are an intelligent chatbot. Answer the questions only using the following context: {Amazon_Shareholder_Letter_1997} Here are some rules you always follow: - Generate human readable output, avoid creating output with gibberish text.
- Generate only the requested output, don't include any other language before or after the requested output.
- Never say thank you, that you are happy to help, that you are an AI agent, etc. Just answer directly.
- Generate professional language typically used in business documents in North America.
- Never generate offensive or foul language. """ user_prompt = "Give me the summary of the shareholder letter"

%%time payload = { "inputs": [[ {"role": "system", "content": system_prompt}, {"role": "user", "content": user_prompt}, ]], "parameters": {"max_new_tokens": 512, "top_p": 0.9, "temperature": 0.6}
}
response = predictor.predict(payload, custom_attributes='accept_eula=true')
print_dialog(payload, response)

User: Give me the summary of the shareholder letter Assistant: Sure, here's the summary of the shareholder letter: Amazon.com's Founder and CEO, Jeffrey P. Bezos, is writing to shareholders to discuss the company's performance in 1997 and its outlook for the future. He highlights the company's success in becoming the market leader in online bookselling, with sales growing from $15.7 million in 1996 to $147.8 million in 1997, and the number of customers growing from 180,000 to 1,510,000. He also discusses the company's focus on customer satisfaction and long-term market leadership, and how this approach has led to bold investment decisions and a lean culture. Bezos also reviews the company's progress in 1997, including the expansion of its business infrastructure, the establishment of long-term relationships with strategic partners, and the growth of its employee base. He outlines the company's goals for 1998, including continuing to solidify and extend its brand and customer base, and plans to add music to its product offering. Overall, the letter emphasizes Amazon.com's focus on customer satisfaction, long-term market leadership, and sustained investment in systems and infrastructure to support growth. ====================================================== CPU times: user 17.9 ms, sys: 1.8 ms, total: 19.7 ms
Wall time: 8.08 s

Kuten on osoitettu, Llama 2 Chat voi noudattaa tiukkoja suojakaiteita järjestelmäkehotteissa, joiden avulla se voi vastata tietystä kontekstista tuleviin kysymyksiin mielekkäällä tavalla. Tämä kyky tasoittaa tietä tekniikoille, kuten Retrieval Augmented Generation (RAG), joka on melko suosittu asiakkaiden keskuudessa. Lisätietoja RAG-lähestymistavasta SageMakerin kanssa on kohdassa Retrieval Augmented Generation (RAG).

Yhteenveto

Llama 2 Chatin käyttöönotto vahvan suorituskyvyn saavuttamiseksi vaatii sekä teknistä asiantuntemusta että strategista näkemystä sen suunnittelusta. Jotta voit hyödyntää mallin laajoja kykyjä täysin, sinun on ymmärrettävä ja käytettävä luovia kehotustekniikoita ja säädettävä päättelyparametreja. Tämän viestin tarkoituksena on hahmotella tehokkaita tapoja integroida Llama 2 Chat SageMakerin avulla. Keskityimme käytännön vinkkeihin ja tekniikoihin ja selitimme tehokkaan tien, jolla voit hyödyntää Llama 2 Chatin tehokkaita ominaisuuksia.

Seuraavat ovat tärkeimmät takeet:

  • Dynaaminen ohjaus tunnelmalla – Llama 2 Chatin lämpötilasäätimet ovat keskeinen rooli paljon muutakin kuin yksinkertaisia ​​säätöjä. Ne toimivat mallin kompassina ohjaten sen luovaa laajuutta ja analyyttistä syvyyttä. Oikean soinnun löytäminen näillä säätimillä voi johtaa sinut luovan tutkimuksen maailmasta täsmällisiin ja johdonmukaisiin tulosteisiin.
  • Komennon selkeys – Kun navigoimme paljon dataa vaativien tehtävien labyrintissa, erityisesti sellaisilla aloilla, kuten tietojen tarkastelu, ohjeidemme tarkkuudesta tulee meidän Pohjantähtemme. Selkeästi ohjattu Llama 2 Chat loistaa kirkkaimmin ja mukauttaa valtavat kykynsä erityisiin aikoihin.
  • Strukturoidut oivallukset – Llama 2 Chatin vaiheittaisen lähestymistavan avulla voit tutkia valtavia tietomääriä järjestelmällisesti, jolloin voit löytää vivahteikkaat kuviot ja oivallukset, jotka eivät ehkä näy ensi silmäyksellä.

Llama 2 Chatin integroiminen SageMaker JumpStartiin ei tarkoita vain tehokkaan työkalun käyttämistä – se on parhaiden käytäntöjen kehittämistä, jotka on räätälöity yksilöllisiin tarpeisiisi ja tavoitteisiisi. Sen täysi potentiaali ei tule pelkästään Llama 2 Chatin vahvuuksien ymmärtämisestä, vaan myös mallin kanssa työskentelyn jatkuvasta parantamisesta. Tämän postauksen tietojen avulla voit löytää ja kokeilla Llama 2 Chatia – tekoälysovelluksesi voivat hyötyä suuresti tästä käytännön kokemuksesta.

Esittelymateriaalit


Tietoja kirjoittajista

Jin Tan Ruan on prototyyppien kehittäjä AWS Industries Prototyping and Customer Engineering (PACE) -tiimissä, joka on erikoistunut NLP:hen ja generatiiviseen tekoälyyn. Ohjelmistokehitystaustalla ja yhdeksällä AWS-sertifioinnilla Jin tuo mukanaan runsaasti kokemusta auttaakseen AWS-asiakkaita toteuttamaan AI/ML- ja generatiivisia tekoälyvisioitaan AWS-alustan avulla. Hän on suorittanut tietojenkäsittelytieteen ja ohjelmistotekniikan maisterin tutkinnon Syracusen yliopistosta. Työn ulkopuolella Jin nauttii videopelien pelaamisesta ja uppoutumisesta kauhuelokuvien jännittävään maailmaan. Löydät Jinin LinkedIn. Otetaan yhteyttä!

Tohtori Farooq Sabir on AWS:n vanhempi tekoäly- ja koneoppimisen asiantuntijaratkaisuarkkitehti. Hänellä on tohtorin ja MS:n tutkinnot sähkötekniikasta Texasin yliopistosta Austinista ja MS-tutkinto tietojenkäsittelytieteestä Georgia Institute of Technologysta. Hänellä on yli 15 vuoden työkokemus ja hän haluaa myös opettaa ja mentoroida korkeakouluopiskelijoita. AWS:ssä hän auttaa asiakkaita muotoilemaan ja ratkaisemaan liiketoimintaongelmiaan datatieteen, koneoppimisen, tietokonenäön, tekoälyn, numeerisen optimoinnin ja niihin liittyvien alojen aloilla. Hän asuu Dallasissa, Texasissa, ja hän ja hänen perheensä rakastavat matkustamista ja pitkiä matkoja.

Pronoy Chopra on Startups AI/ML -tiimin vanhempi ratkaisuarkkitehti. Hän on koulutukseltaan sähkö- ja tietokonetekniikan maisteri, ja hän on intohimoinen auttamaan startup-yrityksiä rakentamaan seuraavan sukupolven sovelluksia ja teknologioita AWS:lle. Hän nauttii työskentelystä generatiivisen tekoälyn ja IoT:n parissa ja on aiemmin ollut mukana perustamassa kahta startupia. Hän nauttii pelaamisesta, lukemisesta ja ohjelmistojen/laitteistojen ohjelmoinnista vapaa-ajallaan.

spot_img

Uusin älykkyys

spot_img