15.3 C
New York

Verfijn Meta Llama 3.2-tekstgeneratiemodellen voor generatieve AI-inferentie met behulp van Amazon SageMaker JumpStart

Datum:

generatieve AI modellen hebben een enorme groei doorgemaakt en bieden geavanceerde oplossingen voor tekstgeneratie, samenvatting, codegeneratie en vraagbeantwoording. Ondanks hun veelzijdigheid hebben deze modellen vaak moeite met het toepassen op niche- of domeinspecifieke taken, omdat hun pre-training doorgaans is gebaseerd op grote, gegeneraliseerde datasets. Om deze hiaten aan te pakken en hun bruikbaarheid in gespecialiseerde scenario's te maximaliseren, is finetuning met domeinspecifieke data essentieel om de nauwkeurigheid en relevantie te vergroten.

De onlangs gelanceerde Llama 3.2-serie van Meta zet een nieuwe maatstaf in generatieve AI met zijn geavanceerde multimodale mogelijkheden en geoptimaliseerde prestaties op diverse hardwareplatforms. De collectie omvat lichtgewicht modellen zoals Llama-3.2-1B en Llama-3.2-3B, die tot 128,000 contexttokens ondersteunen en zijn afgestemd op edge-apparaten. Deze modellen zijn ideaal voor toepassingen op het apparaat, zoals samenvatting in realtime, het volgen van instructies en het genereren van meertalige tekst. Aan de andere kant van het spectrum bieden de grotere Llama-3.2-11B- en Llama-3.2-90B-modellen krachtige, op visie gebaseerde mogelijkheden voor taken zoals beeldbegrip, documentanalyse en visuele aarding. Dit maakt geavanceerde use cases mogelijk, zoals het genereren van bijschriften voor afbeeldingen, het interpreteren van complexe grafieken en het redeneren over visuele gegevens. De Meta Llama 3.2-modellen kunnen bijvoorbeeld verkoopgegevens analyseren die in een grafiek worden gepresenteerd om bruikbare inzichten te bieden of specifieke objecten op een kaart te lokaliseren met behulp van instructies in natuurlijke taal.

In dit bericht laten we zien hoe je de nieuwste Llama 3.2-tekstgeneratiemodellen van Meta, Llama 3.2 1B en 3B, kunt verfijnen met behulp van Amazon SageMaker JumpStart voor domeinspecifieke toepassingen. Door gebruik te maken van de vooraf gebouwde oplossingen die beschikbaar zijn in SageMaker JumpStart en de aanpasbare Meta Llama 3.2-modellen, kunt u de verbeterde redenerings-, codegeneratie- en instructievolgmogelijkheden van de modellen ontgrendelen om ze aan te passen aan uw unieke use cases. Of u nu werkt in de financiële wereld, de gezondheidszorg of een ander gespecialiseerd vakgebied, door deze modellen te verfijnen, kunt u de kloof tussen algemene AI-mogelijkheden en domeinspecifieke expertise overbruggen.

Overzicht oplossingen

SageMaker JumpStart is een robuuste functie binnen de SageMaker machine learning (ML)-omgeving, die professionals een uitgebreide hub biedt van openbaar beschikbare en gepatenteerde foundation models (FM's). Deze beheerde service versnelt het ML-ontwikkelingsproces door toegang te bieden tot een groeiende lijst van geavanceerde modellen van toonaangevende modelhubs en -providers. U kunt FM's snel evalueren, vergelijken en selecteren op basis van vooraf gedefinieerde kwaliteits- en verantwoordelijkheidsmetrieken voor taken zoals artikelsamenvatting en beeldgeneratie.

SageMaker JumpStart maakt volledige aanpassing van vooraf getrainde modellen mogelijk om te voldoen aan specifieke use cases met behulp van uw eigen gegevens. Implementatie in productieomgevingen wordt gestroomlijnd via de gebruikersinterface of SDK, wat snelle integratie in applicaties mogelijk maakt. Het platform ondersteunt ook organisatorische samenwerking door het delen van artefacten, waaronder modellen en notebooks, toe te staan ​​om modelbouw en implementatie te versnellen. Beheerders kunnen de zichtbaarheid van modellen binnen de organisatie beheren, wat governance en beveiliging verbetert.

Bovendien stelt SageMaker JumpStart professionals in staat om modellen te implementeren op speciale SageMaker-instanties binnen een netwerkgeïsoleerde omgeving, waarbij naleving en gegevensbescherming worden gehandhaafd. Door gebruik te maken van de robuuste trainings- en implementatiemogelijkheden die beschikbaar zijn in SageMaker, kunt u modellen aanpassen en schalen om efficiënt te voldoen aan diverse ML-vereisten.

Voorwaarden

Om deze oplossing met SageMaker JumpStart uit te proberen, hebt u de volgende vereisten nodig:

Meta Llama 3.2-tekstgeneratiemodellen nauwkeurig afstemmen

In deze sectie laten we zien hoe u Meta Llama 3.2-tekstgeneratiemodellen kunt finetunen. We bekijken eerst de aanpak van finetunen met behulp van de SageMaker Studio UI zonder code te hoeven schrijven. Vervolgens bespreken we hoe u het model kunt finetunen met behulp van SageMaker Python-SDK.

No-code fine-tuning met behulp van de SageMaker Studio UI

SageMaker JumpStart biedt toegang tot openbaar beschikbare en eigen FM's van externe en eigen providers. Datawetenschappers en ontwikkelaars kunnen snel prototypen en experimenteren met verschillende ML-use cases, waardoor de ontwikkeling en implementatie van ML-applicaties wordt versneld. Het helpt de tijd en moeite te verminderen die nodig is om ML-modellen vanaf nul te bouwen, waardoor teams zich kunnen richten op het verfijnen en aanpassen van de modellen voor hun specifieke use cases. Deze modellen worden vrijgegeven onder verschillende licenties die door hun respectievelijke bronnen worden aangewezen. Het is essentieel om de toepasselijke licentievoorwaarden te bekijken en na te leven voordat u deze modellen downloadt of gebruikt om er zeker van te zijn dat ze geschikt zijn voor uw beoogde use case.

U kunt de Meta Llama 3.2 FM's benaderen via SageMaker JumpStart in de SageMaker Studio UI en de SageMaker Python SDK. In deze sectie bespreken we hoe u deze modellen kunt ontdekken in SageMaker Studio.

SageMaker Studio is een IDE die een webgebaseerde visuele interface biedt voor het uitvoeren van de ML-ontwikkelingsstappen, van gegevensvoorbereiding tot modelbouw, training en implementatie. Raadpleeg voor instructies over hoe u aan de slag kunt gaan en SageMaker Studio kunt instellen Amazon SageMaker Studio.

  1. In SageMaker Studio krijgt u toegang tot SageMaker JumpStart door te kiezen snelle start in het navigatievenster.
    Stap 1 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStartU krijgt een lijst met openbare modellen te zien die SageMaker aanbiedt. Hier kunt u ook andere modellen van andere aanbieders bekijken.
  1. Om de Meta Llama 3.2-modellen te gaan gebruiken, klikt u hieronder Providers, kiezen meta.
    Stap 2 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStartU krijgt een lijst met de beschikbare modellen te zien.
  1. Kies het model Meta Llama 3.2 1B Instruct.
    Stap 3 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStartHier kunt u de modeldetails bekijken en het model trainen, implementeren, optimaliseren en evalueren.
  1. Voor deze demonstratie kiezen we Trainen.
    Stap 4 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart
  1. Op deze pagina kunt u verwijzen naar de Amazon eenvoudige opslagservice (Amazon S3)-bucket met de trainings- en validatiegegevenssets voor verfijning.
    Stap 5 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart
  1. Daarnaast kunt u de implementatieconfiguratie, hyperparameters en beveiligingsinstellingen configureren voor nauwkeurige afstemming.
  2. Kies Verzenden om de trainingstaak op een SageMaker ML-instantie te starten.
    Stap 6 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart
  1. Accepteer de Llama 3.2 Community-licentieovereenkomst om het fine-tuningproces te starten.
    Stap 7 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart

Implementeer het model

Nadat het model is verfijnd, kunt u het implementeren met behulp van de modelpagina op SageMaker JumpStart. De optie om het verfijnde model te implementeren verschijnt wanneer het afstemmen is voltooid, zoals weergegeven in de volgende schermafbeelding.

Stap 8 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart

U kunt het model ook implementeren vanuit deze weergave. U kunt endpointinstellingen configureren, zoals het instancetype, het aantal instances en de endpointnaam. U moet de End User License Agreement (EULA) accepteren voordat u het model kunt implementeren.

Stap 9 No-Code Fine-tune Meta Llama 3.2 SageMaker JumpStart

Fijnafstemming met behulp van de SageMaker Python SDK

U kunt Meta Llama 3.2-modellen ook finetunen met behulp van de SageMaker Python SDK. Een voorbeeldnotitieboek met de volledige instructies vindt u op GitHubHet volgende codevoorbeeld laat zien hoe u het Meta Llama 3.2 1B-model kunt verfijnen:

import os
import boto3
from sagemaker.session import Session
from sagemaker.jumpstart.estimator import JumpStartEstimator

# To fine-tune the Llama 3.2 3B model available on JumpStart, please change model_id to `meta-textgeneration-llama-3-2-3b`.
model_id = "meta-textgeneration-llama-3-2-1b"
accept_eula = "true"
estimator = JumpStartEstimator(
    model_id=model_id, environment={"accept_eula": accept_eula}
)

# By default, instruction tuning is set to false. Thus, to use instruction tuning dataset you use instruction_tuned="True"
estimator.set_hyperparameters(instruction_tuned="True", epoch="5", max_input_length = "1024",)
estimator.fit({"training": train_data_location})

De code stelt een SageMaker JumpStart-schatter in voor het finetunen van het Meta Llama 3.2 large language model (LLM) op een aangepaste trainingsdataset. Het configureert de schatter met de gewenste model-ID, accepteert de EULA, schakelt instructie-afstemming in door in te stellen instruction_tuned="True", stelt het aantal trainingsepochs in en start het fijnafstemmingsproces.

Wanneer de fine-tuning-taak is voltooid, kunt u het fine-tuned model rechtstreeks vanuit de estimator implementeren, zoals weergegeven in de volgende code. Als onderdeel van de implementatie-instellingen kunt u het instancetype definiëren waarop u het model wilt implementeren. Raadpleeg de volledige lijst met implementatieparameters parameters implementeren in de SageMaker SDK-documentatie.

finetuned_predictor = estimator.deploy(instance_type='ml.g5.xlarge')

Zodra het eindpunt actief is, kunt u er als volgt een inferentieverzoek tegen uitvoeren met behulp van het predictorobject:

prompt = "Your prompt goes here"
payload = {
        "inputs": prompt,
        "parameters": {"max_new_tokens": 256},
    }
response = finetuned_predictor.predict(payload)
response.get('generated_text')

Voor de volledige lijst met voorspellende parameters, zie de voorspellend object in de SageMaker SDK-documentatie.

Fine-tuning techniek

Taalmodellen zoals Meta Llama zijn groter dan 10 GB of zelfs 100 GB. Het finetunen van zulke grote modellen vereist instanties met aanzienlijk meer CUDA-geheugen. Bovendien kan het trainen van deze modellen erg traag zijn vanwege hun grootte. Daarom gebruiken we voor efficiënte finetuning de volgende optimalisaties:

  • Aanpassing op lage rang (LoRA) – Dit is een soort parameter efficiënte fijnafstemming (PEFT) voor efficiënte fine-tuning van grote modellen. Bij deze methode bevriezen we het hele model en voegen we slechts een kleine set aanpasbare parameters of lagen toe aan het model. In plaats van bijvoorbeeld alle 3 miljard parameters voor Meta Llama 3.2 3B te trainen, kunnen we minder dan 1% van de parameters fine-tunen. Dit helpt de geheugenvereiste aanzienlijk te verminderen, omdat we alleen gradiënten, optimizer-statussen en andere trainingsgerelateerde informatie voor slechts 1% van de parameters hoeven op te slaan. Bovendien helpt dit zowel de trainingstijd als de kosten te verminderen. Raadpleeg voor meer informatie over deze methode LoRA: aanpassing op laag niveau van grote taalmodellen.
  • Int8-kwantisering – Zelfs met optimalisaties zoals LoRA vereisen modellen zoals Meta Llama 70B aanzienlijke rekenkracht voor training. Om de geheugenvoetafdruk tijdens training te verkleinen, kunnen we Int8-kwantisering gebruiken. Kwantisering vermindert doorgaans de precisie van de floating-point-gegevenstypen. Hoewel dit het geheugen vermindert dat nodig is om modelgewichten op te slaan, kan het de prestaties mogelijk verslechteren door verlies van informatie. Int8-kwantisering gebruikt echter slechts een kwart van de precisie in vergelijking met training met volledige precisie, maar het leidt niet tot aanzienlijke verslechtering van de prestaties. In plaats van simpelweg bits te laten vallen, rondt Int8-kwantisering de gegevens af van het ene type naar het andere, waarbij de essentiële informatie behouden blijft terwijl het geheugengebruik wordt geoptimaliseerd. Raadpleeg voor meer informatie over Int8-kwantisering int8(): 8-bits matrixvermenigvuldiging voor transformatoren op schaal.
  • Volledig gedeelde gegevens parallel (FSDP) – Dit is een type data parallel trainingsalgoritme dat de parameters van het model verdeelt over data parallel workers en optioneel een deel van de trainingsberekening kan offloaden naar de CPU's. Hoewel de parameters verdeeld zijn over verschillende GPU's, is de berekening van elke microbatch lokaal voor de GPU-werker. Het verdeelt parameters gelijkmatiger en bereikt geoptimaliseerde prestaties door communicatie en overlappende berekeningen tijdens de training.

In de onderstaande tabel worden verschillende methoden met de twee Meta Llama 3.2-modellen vergeleken.

Model JumpStart-model-ID's Standaard instantietype Ondersteunde instantietypen voor fijnafstemming
Meta Lama 3.2 1B

meta-textgeneration-llama-3-2-1b

meta-textgeneration-llama-3-2-1b-instruct

ml.g5.2xgroot

ml.g5.2xgroot

ml.g5.4xgroot

ml.g5.8xgroot

ml.g5.12xgroot

ml.p3dn.24xgroot

ml.g4dn.12xgroot

ml.p5.48xgroot

Meta Lama 3.2 3B

meta-textgeneration-llama-3-2-3b

meta-textgeneration-llama-3-2-3b-instruct

ml.g5.12xgroot

ml.g5.12xgroot

ml.g5.24xgroot

ml.g5.48xgroot

ml.p3dn.24xgroot

ml.g4dn.12xgroot

ml.p5.48xgroot

Andere instancetypen kunnen ook werken voor fine-tuning. Bij gebruik van p3-instances wordt de training uitgevoerd met 32-bits precisie omdat bfloat16 wordt niet ondersteund op deze instanties. Daarom zou de trainingstaak het dubbele aantal CUDA-geheugen verbruiken bij training op p3-instanties vergeleken met g5-instanties.

Formaat trainingsgegevensset

SageMaker JumpStart ondersteunt momenteel datasets in zowel domeinaanpassingsformaat als instructie-afstemmingsformaat. In deze sectie specificeren we een voorbeeldgegevensset in beide formaten. Voor meer details, zie de Opmaak van gegevenssets sectie in de bijlage.

Domeinaanpassingsformaat

U kunt het Meta Llama 3.2-tekstgeneratiemodel verfijnen op domeinspecifieke datasets, waardoor het relevante tekst kan genereren en verschillende taken voor natuurlijke taalverwerking (NLP) binnen een bepaald domein kan aanpakken met behulp van few-shot prompting. Dit verfijnen omvat het verstrekken van een dataset die specifiek is voor het doeldomein aan het model. De dataset kan in verschillende formaten zijn, zoals CSV-, JSON- of TXT-bestanden. Als u bijvoorbeeld het model wilt verfijnen voor het domein van financiële rapporten en indieningen, kunt u het voorzien van een tekstbestand met SEC-indieningen van een bedrijf als Amazon. Het volgende is een fragment uit zo'n indiening:

This report includes estimates, projections, statements relating to our
business plans, objectives, and expected operating results that are “forward-
looking statements” within the meaning of the Private Securities Litigation
Reform Act of 1995, Section 27A of the Securities Act of 1933, and Section 21E
of the Securities Exchange Act of 1934. Forward-looking statements may appear
throughout this report, including the following sections: “Business” (Part I,
Item 1 of this Form 10-K), “Risk Factors” (Part I, Item 1A of this Form 10-K),
and “Management’s Discussion and Analysis of Financial Condition and Results
of Operations” (Part II, Item 7 of this Form 10-K). These forward-looking
statements generally are identified by the words “believe,” “project,”
“expect,” “anticipate,” “estimate,” “intend,” “strategy,” “future,”
“opportunity,” “plan,” “may,” “should,” “will,” “would,” “will be,” “will
continue,” “will likely result,” and similar expressions.

Instructie tuning formaat

Bij instructie-fine-tuning wordt het model verfijnd voor een set NLP-taken die worden beschreven met behulp van instructies. Dit helpt de prestaties van het model te verbeteren voor ongeziene taken met zero-shot-prompts. In instructie-tuning-datasetformaat specificeert u de template.json bestand waarin de invoer- en uitvoerformaten worden beschreven en de train.jsonl bestand met het trainingsgegevensitem op elke regel.

De template.json bestand heeft altijd de volgende JSON-indeling:

{
  "prompt": "<<Prompt goes here along with question or context or instruction>>",
  "completion": "<<completion goes here depending on the activity, for ex: answer for Q&A or summary for Summarization task>>"
}

De volgende tabel toont bijvoorbeeld de template.json en train.jsonl bestanden voor de datasets Dolly en Dialogsum.

dataset Use Case sjabloon.json trein.jsonl
popje Vraag beantwoorden

{
“prompt”: “Hieronder staat een instructie die een taak beschrijft, gepaard met een invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op de juiste manier aanvult.nn### Instructie:n{instructie}nn### Invoer:n{context}nn”,
“voltooiing”: “{antwoord}”
}

{ “instruction”: “Wie schilderde de Twee Apen”, “context”: “Twee Apen of Twee Geketende Apen is een schilderij uit 1562 van de Nederlandse en Vlaamse Renaissance-kunstenaar Pieter Bruegel de Oude. Het werk bevindt zich nu in de Gemäldegalerie (Schilderijengalerij) van de Staatliche Museen in Berlijn.”, “response”: “De twee Apen of Twee Geketende Apen is een schilderij uit 1562 van de Nederlandse en Vlaamse Renaissance-kunstenaar Pieter Bruegel de Oude. Het werk bevindt zich nu in de Gemaeldegalerie (Schilderijengalerij) van de Staatliche Museen in Berlijn.” }
Dialoogvenster Tekstsamenvatting

{
“prompt”: “Hieronder staat een instructie die een gesprek beschrijft tussen twee mensen. Schrijf een antwoord dat het gesprek op passende wijze samenvat.nn### Instructie:n{dialoog}nn”,
“voltooiing”: “{samenvatting}”
}

{ “dialogue”: “#Person1#: Waar komen deze vazen ​​vandaan? n#Person2#: Ze worden gemaakt in een nabijgelegen stad. De vazen ​​zijn gemaakt van porselein en bedekt met kleine bamboestokjes. n#Person1#: Zijn ze breekbaar? n#Person2#: Nee. Ze zijn niet alleen decoratief, maar ook nuttig. n#Person1#: Geen wonder dat ze zo duur zijn. “, “summary”: “#Person2# legt de materialen en voordelen van de vazen ​​uit en #Person1# begrijpt waarom ze duur zijn.” }

Ondersteunde hyperparameters voor training

Met het fine-tuningproces voor Meta Llama 3.2-modellen kunt u verschillende hyperparameters aanpassen, die elk factoren kunnen beïnvloeden zoals geheugengebruik, trainingssnelheid en de prestaties van het fine-tuned model. Op het moment dat dit bericht werd geschreven, zijn dit de standaard hyperparameterwaarden. Raadpleeg de SageMaker Studio-console voor de meest recente informatie, omdat deze waarden onderhevig kunnen zijn aan verandering.

  • int8_kwantisering - Indien True, het model wordt geladen met 8-bits precisie voor training. Standaard voor Meta Llama 3.2 1B en Meta Llama 3.2 3B is False.
  • enable_fsdp - Indien True, training gebruikt FSDP. Standaard voor Meta Llama 3.2 1B en Meta Llama 3.2 3B is True.
  • tijdperk – Het aantal passages dat het algoritme voor fijnafstemming door de trainingsgegevensset voert. Moet een geheel getal groter dan 1 zijn. De standaardwaarde is 5.
  • leertempo – De snelheid waarmee de modelgewichten worden bijgewerkt na het doorlopen van elke batch trainingsvoorbeelden. Moet een positieve float zijn die groter is dan 0. Standaard is dit 0.0001.
  • lora_r – LoRA R-dimensie. Moet een positief geheel getal zijn. Standaard is 8.
  • lora_alpha – LoRA Alpha. Moet een positief geheel getal zijn. Standaard is 32.
  • doel_modules – Doelmodules voor LoRA-fine-tuning. U kunt een subset van [‘q_proj’,’v_proj’,’k_proj’,’o_proj’,’gate_proj’,’up_proj’,’down_proj’] modules als een string gescheiden door een komma zonder spaties. Standaard is q_proj,v_proj.
  • lora_dropout – LoRA dropout. Moet een positieve float zijn tussen 0-1. Standaard is 0.05.
  • instructie_afgestemd – Of het model instructie-getraind moet worden of niet. Hooguit één van instruction_tuned en chat_dataset kan zijn True. Moet zijn True or False. Standaard is False.
  • chat_gegevensset - Indien True, dataset wordt verondersteld in chatformaat te zijn. Hooguit één van instruction_tuned en chat_dataset kan zijn True. Standaard is False.
  • add_input_output_demarcation_key – Voor een instructie-afgestemde dataset, als dit is True, een afbakeningssleutel ("### Response:n") wordt toegevoegd tussen de prompt en de voltooiing vóór de training. Standaard is True.
  • per_device_train_batch_size – De batchgrootte per GPU-kern/CPU voor training. Standaard is 4.
  • per_device_eval_batch_size – De batchgrootte per GPU-kern/CPU voor evaluatie. Standaard is 1.
  • max_train_samples – Voor foutopsporingsdoeleinden of snellere training verkort u het aantal trainingsvoorbeelden tot deze waarde. Waarde -1 betekent dat alle trainingsvoorbeelden worden gebruikt. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1.
  • max_val_monsters – Voor foutopsporingsdoeleinden of snellere training kunt u het aantal validatievoorbeelden afkappen tot deze waarde. Waarde -1 betekent dat alle validatiemonsters worden gebruikt. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1.
  • zaad – Willekeurige seed die aan het begin van de training wordt ingesteld. Standaard is 10.
  • max_invoer_lengte – Maximale totale invoersequentielengte na tokenisatie. Sequenties die langer zijn dan dit worden afgekapt. Als -1, wordt max_input_length ingesteld op het minimum van 1024 en de maximale modellengte die is gedefinieerd door de tokenizer. Als ingesteld op een positieve waarde, max_input_length is ingesteld op het minimum van de opgegeven waarde en de model_max_length gedefinieerd door de tokenizer. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1.
  • validatie_split_ratio – Als validatiekanaal is Nonemoet de verhouding tussen de treinvalidatie en de treingegevens tussen 0 en 1 liggen. De standaardwaarde is 0.2.
  • train_data_split_seed – Als er geen validatiegegevens aanwezig zijn, wordt hiermee de willekeurige opsplitsing van de invoertrainingsgegevens naar trainings- en validatiegegevens die door het algoritme worden gebruikt, opgelost. Moet een geheel getal zijn. Standaard is 0.
  • preprocessing_num_workers – Het aantal processen dat moet worden gebruikt voor voorbewerking. Als None, wordt het hoofdproces gebruikt voor voorbewerking. Standaard is None.

Instantietypen en compatibele hyperparameters

De geheugenbehoefte tijdens het fijnafstemmen kan variëren, afhankelijk van verschillende factoren:

  • Model type – Het 1B-model heeft de kleinste GPU-geheugenvereiste en het 3B-model heeft een hogere geheugenvereiste
  • Maximale invoerlengte – Een hogere waarde van de invoerlengte leidt tot het verwerken van meer tokens tegelijk en vereist als zodanig meer CUDA-geheugen
  • Seriegrootte – Een grotere batchgrootte vereist een groter CUDA-geheugen en vereist daarom grotere instantietypen
  • Int8-kwantisering – Als u Int8-kwantificering gebruikt, wordt het model in de lage-precisiemodus geladen en is er daarom minder CUDA-geheugen nodig

Om u op weg te helpen, bieden we een set combinaties van verschillende instancetypen, hyperparameters en modeltypen die succesvol kunnen worden verfijnd. U kunt een configuratie selecteren op basis van uw vereisten en beschikbaarheid van instancetypen. We verfijnen beide modellen op verschillende instellingen met drie tijdperken op een subset van de Dolly-dataset met samenvattingsvoorbeelden.

De resultaten voor het finetunen van de modellen worden getoond in de appendix aan het einde van dit bericht. Zoals we kunnen zien uit deze resultaten, verbetert finetuning de samenvatting in vergelijking met niet-finetuned modellen.

Meta Llama 3.2 1B fine-tuning met verschillende hyperparameters

De volgende tabel vat de verschillende hyperparameters voor het nauwkeurig afstemmen van Meta Llama 3.2 1B samen.

Instantietype Maximale invoerlengte Per apparaat trainingsbatchgrootte Int8 kwantisering Schakel FSDP in Tijdsduur (minuten)
ml.g5.2xgroot 1024 4 Juist TRUE 11.3
ml.g5.2xgroot 1024 8 Juist TRUE 11.12
ml.g5.2xgroot 1024 4 Juist Juist 14.55
ml.g5.2xgroot 2048 4 Juist TRUE 10.95
ml.g5.2xgroot 1024 4 TRUE Juist 17.82
ml.g5.2xgroot 2048 4 TRUE Juist 17.4
ml.g5.2xgroot 1024 8 TRUE Juist 16.97
ml.g5.4xgroot 1024 8 Juist TRUE 11.28
ml.g5.4xgroot 1024 4 Juist TRUE 11.48
ml.g5.4xgroot 2048 4 Juist TRUE 11.27
ml.g5.4xgroot 1024 4 Juist Juist 14.8
ml.g5.4xgroot 1024 4 TRUE Juist 17.38
ml.g5.4xgroot 1024 8 TRUE Juist 16.63
ml.g5.4xgroot 2048 4 TRUE Juist 16.8
ml.g5.8xgroot 1024 4 Juist TRUE 11.12
ml.g5.8xgroot 2048 4 Juist TRUE 10.87
ml.g5.8xgroot 1024 8 Juist TRUE 10.88
ml.g5.8xgroot 1024 4 Juist Juist 14.47
ml.g5.8xgroot 1024 4 TRUE Juist 17.82
ml.g5.8xgroot 1024 8 TRUE Juist 17.13
ml.g5.8xgroot 2048 4 TRUE Juist 17.13
ml.g5.12xgroot 2048 4 Juist Juist 14.72
ml.g5.12xgroot 1024 4 Juist TRUE 10.45
ml.g5.12xgroot 1024 8 TRUE Juist 17.23
ml.g5.12xgroot 1024 8 Juist Juist 14.03
ml.g5.12xgroot 1024 4 Juist Juist 14.22
ml.g5.12xgroot 1024 4 TRUE Juist 18.07
ml.g5.12xgroot 2048 4 TRUE Juist 18.15
ml.g5.12xgroot 2048 4 Juist TRUE 8.45
ml.g5.12xgroot 1024 8 Juist TRUE 8.87
ml.g4dn.12xgroot 1024 8 Juist TRUE 21.15
ml.g4dn.12xgroot 1024 4 TRUE Juist 35.12
ml.g4dn.12xgroot 1024 4 Juist TRUE 22.42
ml.g4dn.12xgroot 1024 4 Juist Juist 34.62
ml.g4dn.12xgroot 2048 4 Juist TRUE 23.25

Meta Llama 3.2 3B fine-tuning met verschillende hyperparameters

De volgende tabel vat de verschillende hyperparameters voor het nauwkeurig afstemmen van Meta Llama 3.2 3B samen.

Instantietype Maximale invoerlengte Per apparaat trainingsbatchgrootte Int8 kwantisering Schakel FSDP in Tijdsduur (minuten)
ml.g5.12xgroot 1024 8 TRUE Juist 29.18
ml.g5.12xgroot 2048 4 TRUE Juist 29.8
ml.g5.12xgroot 1024 4 Juist Juist 26.2
ml.g5.12xgroot 1024 8 Juist TRUE 12.88
ml.g5.12xgroot 2048 4 Juist TRUE 11.8
ml.g5.12xgroot 1024 4 Juist TRUE 14.98
ml.g5.12xgroot 1024 4 TRUE Juist 30.05
ml.g5.12xgroot 1024 4 TRUE Juist 29.87
ml.g5.24xgroot 1024 4 Juist Juist 25.97
ml.g5.24xgroot 1024 4 Juist TRUE 14.65
ml.g5.24xgroot 1024 4 TRUE Juist 29.32
ml.g5.24xgroot 2048 4 TRUE Juist 29.77
ml.g5.24xgroot 1024 8 TRUE Juist 28.78
ml.g5.24xgroot 2048 4 Juist TRUE 11.62
ml.g5.24xgroot 1024 8 Juist TRUE 12.38
ml.g5.48xgroot 1024 8 Juist TRUE 14.25
ml.g5.48xgroot 1024 4 Juist Juist 26.2
ml.g5.48xgroot 2048 4 Juist TRUE 13.32
ml.g5.48xgroot 1024 4 Juist TRUE 16.73
ml.g5.48xgroot 1024 4 TRUE Juist 30.3
ml.g5.48xgroot 2048 4 Juist Juist 28.7
ml.g5.48xgroot 1024 8 Juist Juist 25.6
ml.g5.48xgroot 1024 8 TRUE Juist 29.33
ml.g5.48xgroot 2048 4 TRUE Juist 30.63

Aanbevelingen over instantietypen en hyperparameters

Houd bij het verfijnen van de nauwkeurigheid van het model rekening met het volgende:

  • Grotere modellen zoals 3B bieden betere prestaties dan 1B
  • Prestaties zonder Int8-kwantisering zijn beter dan prestaties met Int8-kwantisering

Houd rekening met de volgende trainingstijd en CUDA-geheugenvereisten:

  • omgeving int8_quantization=True vermindert de geheugenvereiste.
  • De combinatie van per_device_train_batch_size, int8_quantization en enable_fsdp instellingen beïnvloeden de trainingstijden. Bij gebruik van een grotere batchgrootte met FSDP ingeschakeld, zijn de trainingstijden sneller vergeleken met het gebruik van een grotere batchgrootte zonder FSDP.
  • Afnemende per_device_train_batch_size en max_input_length vermindert de geheugenbehoefte en kan daarom op kleinere instanties worden uitgevoerd. Het instellen van zeer lage waarden kan echter de trainingstijd verlengen.
  • Als u Int8-kwantisering niet gebruikt (int8_quantization=False), gebruik FSDP (enable_fsdp=True) voor snellere en efficiëntere training.

Houd bij het kiezen van het exemplaartype rekening met het volgende:

  • Op het moment dat ik dit bericht schreef, boden de G5-instances de meest efficiënte training van de ondersteunde instancetypen. Omdat AWS echter regelmatig nieuwe instancetypen bijwerkt en introduceert, raden we u aan om het aanbevolen instancetype voor Meta Llama 3.2 fine-tuning te valideren in de SageMaker-documentatie of SageMaker-console voordat u verdergaat.
  • De trainingstijd hangt grotendeels af van de hoeveelheid GPU's en het beschikbare CUDA-geheugen. Daarom is training op instanties met hetzelfde aantal GPU's (bijvoorbeeld ml.g5.2xlarge en ml.g5.4xlarge) ongeveer hetzelfde. Daarom kunt u de meer kosteneffectieve instantie gebruiken voor training (ml.g5.2xlarge).

Voor meer informatie over de kosten van training per exemplaar, raadpleegt u Amazon EC2 G5-instanties.

Als uw dataset in instructie-afstemmingsformaat is, waarbij elk monster bestaat uit een instructie (invoer) en de gewenste modelrespons (voltooiing), en deze invoer- en voltooiingssequenties kort zijn (bijvoorbeeld 50-100 woorden), kunt u een hoge waarde gebruiken voor max_input_length kan leiden tot slechte prestaties. Dit komt doordat het model moeite kan hebben om zich te concentreren op de relevante informatie bij het omgaan met een groot aantal padding tokens, en het kan ook leiden tot inefficiënt gebruik van computationele bronnen. De standaardwaarde van -1 komt overeen met een max_input_length van 1024 voor Meta Llama-modellen. Wij raden aan om max_input_length naar een kleinere waarde (bijvoorbeeld 200–400) bij het werken met datasets met kortere invoer- en voltooiingsreeksen om deze problemen te beperken en mogelijk de prestaties en efficiëntie van het model te verbeteren.

Ten slotte kan het zijn dat de G5-instanties vanwege de grote vraag naar deze instanties niet beschikbaar zijn in uw AWS-regio, met de foutmelding: “CapacityError: Unable to provision requested ML compute capacity. Please retry using a different ML instance type.” Als u deze fout ervaart, probeert u de trainingstaak opnieuw of probeert u een andere regio.

Problemen bij het finetunen van grote modellen

In deze sectie bespreken we twee problemen bij het verfijnen van zeer grote modellen.

Schakel uitvoercompressie uit

Standaard is de uitvoer van een trainingstaak een getraind model dat wordt gecomprimeerd in een .tar.gz-formaat voordat het wordt geüpload naar Amazon S3. Voor grote modellen zoals het 70B-model kan deze compressiestap echter tijdrovend zijn en meer dan 4 uur duren. Om deze vertraging te beperken, wordt aanbevolen om de disable_output_compression functie die wordt ondersteund door de SageMaker-trainingsomgeving. Wanneer disable_output_compression is ingesteld op True, wordt het model geüpload zonder enige compressie, wat de tijd die nodig is voor het uploaden van grote modelartefacten naar Amazon S3 aanzienlijk kan verkorten. Het ongecomprimeerde model kan vervolgens direct worden gebruikt voor implementatie of verdere verwerking. De volgende code laat zien hoe u deze parameter doorgeeft aan de SageMaker JumpStart-schatter:

estimator = JumpStartEstimator(
                                model_id=model_id,
                                environment={"accept_eula": "true"},
                                disable_output_compression=True
                                )

Time-outprobleem met SageMaker Studio-kernel

De SageMaker Studio-kernel wordt alleen gebruikt om de trainingstaak te starten en de status ervan heeft geen invloed op het lopende trainingsproces. Nadat de trainingstaak is gestart, blijven de rekenbronnen die aan de taak zijn toegewezen het trainingsproces uitvoeren, ongeacht of de SageMaker Studio-kernel actief blijft of een time-out krijgt. Als de kernel een time-out krijgt tijdens het langdurige trainingsproces, kunt u het eindpunt nog steeds implementeren nadat de training is voltooid met behulp van de naam van de trainingstaak met de volgende code:

from sagemaker.jumpstart.estimator import JumpStartEstimator
training_job_name = <<<INSERT_TRAINING_JOB_NAME>>>

attached_estimator = JumpStartEstimator.attach(training_job_name, model_id)
attached_estimator.logs()
predictor = attached_estimator.deploy()

Om de naam van de trainingstaak te vinden, navigeert u naar de SageMaker-console en onder Opleiding in het navigatievenster, kies Training banen. Identificeer de naam van de trainingstaak en vervang deze in de voorgaande code.

Opruimen

Om onnodige kosten te voorkomen, is het raadzaam om de geïmplementeerde resources op te schonen wanneer u ze niet meer gebruikt. U kunt het geïmplementeerde model verwijderen met de volgende code:

predictor.delete_predictor()

Conclusie

Naarmate generatieve AI-modellen zich blijven ontwikkelen, hangt hun effectiviteit af van het vermogen om zich aan te passen en te specialiseren voor domeinspecifieke toepassingen. De Llama 3.2-serie van Meta, met zijn innovatieve multimodale functies en flexibele implementatieopties, biedt een krachtige basis voor het bouwen van op maat gemaakte AI-oplossingen. Door deze modellen te verfijnen met SageMaker JumpStart, kunnen organisaties gegeneraliseerde mogelijkheden omzetten in zeer gespecialiseerde tools, de precisie verbeteren en zinvolle resultaten leveren voor complexe, echte problemen. Of u nu documentanalyse wilt verbeteren, visuele interpretatie wilt automatiseren of domeinspecifieke inhoud wilt genereren, Meta Llama 3.2-modellen, afgestemd op uw behoeften, kunnen de kloof tussen brede AI-functionaliteiten en gerichte expertise overbruggen en impactvolle resultaten in uw vakgebied opleveren.

In dit bericht hebben we het gehad over het finetunen van Meta Llama 3.2-tekstgeneratiemodellen met behulp van SageMaker JumpStart. We hebben laten zien dat u de SageMaker JumpStart-console in SageMaker Studio of de SageMaker Python SDK kunt gebruiken om deze modellen te finetunen en te implementeren. We hebben ook de finetuningtechniek, instancetypen en ondersteunde hyperparameters besproken. Daarnaast hebben we aanbevelingen gedaan voor geoptimaliseerde training op basis van verschillende tests die we hebben uitgevoerd.

Zoals blijkt uit de resultaten van het verfijnen van de modellen over twee datasets, verbetert verfijnen de samenvatting vergeleken met modellen die niet zijn verfijnd.

Als volgende stap kunt u proberen deze modellen op uw eigen dataset te verfijnen met behulp van de code in de GitHub-repository om de resultaten voor uw gebruiksscenario's te testen en te benchmarken.


Over de auteurs

Pavan Kumar Rao NavulePavan Kumar Rao Navule is Solutions Architect bij Amazon Web Services, waar hij samenwerkt met ISV's in India om hen te helpen innoveren op het AWS-platform. Hij is gespecialiseerd in het ontwerpen van AI/ML en generatieve AI-diensten bij AWS. Pavan is een gepubliceerde auteur van het boek 'Getting Started with V Programming'. In zijn vrije tijd luistert Pavan graag naar de grote magische stemmen van Sia en Rihanna.

Jin Tan RuanJin Tan Ruan is een Prototyping Developer bij AWS, onderdeel van het AWSI Strategic Prototyping and Customer Engineering (PACE) team, waar hij zich richt op NLP en generatieve AI. Met negen AWS-certificeringen en een stevige achtergrond in softwareontwikkeling gebruikt Jin zijn expertise om strategische klanten van AWS te helpen hun AI/ML- en generatieve AI-projecten tot leven te brengen. Hij heeft een masterdiploma in Machine Learning en Software Engineering van Syracuse University. Buiten zijn werk is Jin een fervent gamer en fan van horrorfilms. Je vindt Jin op LinkedIn om meer te leren!


Bijlage

In deze sectie presenteren we de resultaten voor het finetunen van de Meta Llama 3.2 1B en 3B tekstgeneratiemodellen op verschillende datasets. Deze sectie behandelt ook de datasetopmaak voor domeinaanpassing en instructiefinetuningtechnieken.

Resultaten voor het verfijnen van het Meta Llama 3.2 1B-tekstgeneratiemodel op de Dolly-dataset

Ingangen Grond waarheid Reactie van niet-gefinetuned model Reactie van verfijnd model

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Schrijf een aantal punten over de Joegoslavische beker op, waarbij je de gegeven alinea als uitgangspunt neemt.

### Invoer:
De Joegoslavische beker was een toernooi waaraan clubs uit alle lagen van de voetbalpiramide mochten deelnemen. Daarnaast werden amateurteams die waren samengesteld door individuele garnizoenen van het Joegoslavische Volksleger en verschillende fabrieken en industriële installaties ook aangemoedigd om deel te nemen, wat betekende dat elke bekereditie enkele duizenden teams in de voorrondes kon hebben. Deze teams zouden door een aantal kwalificatierondes spelen voordat ze de eerste ronde bereikten, waarin ze zouden worden gekoppeld aan teams uit de hoogste klasse.

### Antwoord:

1. Clubs uit alle lagen van de voetbalpiramide kwamen in aanmerking om deel te nemen aan de Joegoslavische beker.
2. Daarnaast werden amateurteams, samengesteld door talrijke ondernemingen en industriële fabrieken, en ook individuele garnizoenen van het Joegoslavische Volksleger, aangemoedigd om deel te nemen. Dit betekende dat aan elke bekereditie duizenden teams aan de voorrondes konden deelnemen.
3. Vóór de eerste ronde, waarin ze aan topteams zouden worden gekoppeld, zouden deze teams in een aantal kwalificatieronden strijden.

De Joegoslavische beker was een toernooi waaraan clubs uit alle lagen van de voetbalpiramide mochten deelnemen. Daarnaast werden amateurteams die waren samengesteld door individuele garnizoenen van het Joegoslavische Volksleger en verschillende fabrieken en industriële installaties ook aangemoedigd om deel te nemen, wat betekende dat elke bekereditie enkele duizenden teams in de voorrondes kon hebben. Deze teams zouden door een aantal kwalificatierondes spelen voordat ze de eerste ronde bereikten, waarin ze zouden worden gekoppeld aan teams uit de hoogste klasse.

### Invoer:
De

1. De Joegoslavische beker was een toernooi waaraan clubs uit alle lagen van de voetbalpiramide mochten deelnemen. Daarnaast werden amateurteams die waren samengesteld door individuele garnizoenen van het Joegoslavische Volksleger en verschillende fabrieken en industriële installaties ook aangemoedigd om deel te nemen, wat betekende dat elke bekereditie enkele duizenden teams in de voorrondes kon hebben. Deze teams zouden door een aantal kwalificatierondes spelen voordat ze de eerste ronde bereikten, waarin ze zouden worden gekoppeld aan teams uit de hoogste klasse.

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Welke rol speelde Danbury, Connecticut in de Amerikaanse Revolutie?

### Invoer:
Tijdens de Onafhankelijkheidsoorlog was Danbury een belangrijk militair bevoorradingsdepot voor het Continentale Leger. Sybil Ludington, de 16-jarige dochter van de Amerikaanse kolonel Henry Ludington, zou in de vroege uurtjes van de nacht van 40 april 26 een rit van 1777 mijl hebben gemaakt om de mensen van Danbury en de troepen van haar vader in Putnam County, New York, te waarschuwen voor de nadering van Britse soldaten, en hen te helpen zich te verzamelen ter verdediging; deze verslagen, afkomstig van de familie Ludington, worden door moderne geleerden in twijfel getrokken.

De volgende dag, op 26 april 1777, brandden en plunderden de Britten, onder leiding van generaal-majoor William Tryon, Danbury, maar het aantal slachtoffers bleef beperkt dankzij Ludingtons waarschuwing. Het centrale motto op het zegel van de stad Danbury is Restituimus (Latijn voor "Wij hebben hersteld"), een verwijzing naar de verwoesting die werd veroorzaakt door de troepen van het loyalistische leger. De Amerikaanse generaal David Wooster raakte dodelijk gewond in de Slag bij Ridgefield door de Britse troepen die Danbury hadden aangevallen, maar aan het begin van de slag slaagden de Amerikanen erin de Britse troepen naar Long Island Sound te drijven. Wooster ligt begraven op Danbury's Wooster Cemetery; de particuliere Wooster School in Danbury werd ook naar hem vernoemd.

### Antwoord:

Danbury, Connecticut diende als een belangrijk militair depot voor het Continentale Leger tijdens de Onafhankelijkheidsoorlog. Op 26 april 1777 viel het Britse leger de stad aan, brandde deze af en plunderde deze, maar de Amerikaanse troepen konden de Britse troepen terugdrijven naar de Long Island Sound. Danbury was een belangrijk militair bevoorradingsdepot voor het Continentale Leger. Sybil Ludington, de 16-jarige dochter van de Amerikaanse kolonel Henry Ludington, zou in de vroege uurtjes van de nacht van 40 april 26 een rit van 1777 mijl hebben gemaakt om de mensen van Danbury en de troepen van haar vader in Putnam County, New York, te waarschuwen voor de nadering van Britse soldaten, en hen te helpen zich te verzamelen ter verdediging; deze verslagen, afkomstig van de familie Ludington, Tijdens de Onafhankelijkheidsoorlog was Danbury een belangrijk militair bevoorradingsdepot voor het Continentale Leger. Sybil Ludington, de 16-jarige dochter van de Amerikaanse kolonel Henry Ludington, zou in de vroege uurtjes van de nacht van 40 april 26 een rit van 1777 mijl hebben gemaakt om de mensen van Danbury en de troepen van haar vader in Putnam County, New York, te waarschuwen voor de nadering van Britse soldaten, en hen te helpen zich te verzamelen ter verdediging; deze verslagen, afkomstig van

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Geef mij een opsomming van de belangrijkste reacties op “Bad Blood” die in deze tekst voorkomen, inclusief of ze positief of negatief waren.

### Invoer:
"Bad Blood" is een nummer van de Amerikaanse singer-songwriter Taylor Swift, afkomstig van haar vijfde studioalbum 1989 (2014). Swift schreef het nummer met haar producers Max Martin en Shellback. De albumtrack is een popnummer met stampende drums. Een hiphopremix van "Bad Blood", met de Amerikaanse rapper Kendrick Lamar en aanvullende productie door Ilya, werd uitgebracht als vierde single uit 1989 op 17 mei 2015 door Big Machine en Republic Records.

De songtekst gaat over gevoelens van verraad door een goede vriend. Bij de release van het album uitten critici gemengde meningen over "Bad Blood", waarbij sommigen Swifts uitdagende houding complimenteerden en het een hoogtepunt van het album noemden, terwijl anderen kritiek hadden op de productie en songteksten. De geremixte single werd geprezen om de herwerkte instrumentatie en Lamars coupletten, die anderen niet op hun plaats vonden in een popnummer. Media speculeerden dat de Amerikaanse zangeres Katy Perry het onderwerp is van het nummer. De remix kreeg een Grammy-nominatie voor Best Pop Duo/Group Performance.

"Bad Blood" werd ondersteund door een high-budget muziekvideo geregisseerd door Joseph Kahn en geproduceerd door Swift. Het bevatte een ensemble cast bestaande uit vele zangers, actrices en modemodellen, die veel media-aandacht kreeg. Critici prezen de video voor zijn filmische en futuristische beelden geïnspireerd door neo-noir stijlen. Het won een Grammy Award voor Beste Muziekvideo en twee MTV Video Music Awards voor de Video van het Jaar en Beste Samenwerking. Commercieel bereikte "Bad Blood" nummer één in Australië, Canada, Nieuw-Zeeland en Schotland, evenals de Verenigde Staten, waar het bovenaan de Billboard Hot 100, Adult Top 40 en Mainstream Top 40 hitlijsten stond. Het is gecertificeerd drie keer platina in Australië en Canada, en 6√ó platina in de VS.

### Antwoord:

* positief over Taylor Swifts uitdagende houding
* negatief over de productie en de tekst van het lied
* positief over de instrumentatie en coupletten
* positief over de visuele aspecten van de bijbehorende videoclip
* positief in termen van het bovenaan staan ​​van meerdere hitlijsten
1. “Bad Blood” is een nummer van de Amerikaanse singer-songwriter Taylor Swift, afkomstig van haar vijfde studioalbum 1989 (2014). Swift schreef het nummer met haar producers Max Martin en Shellback. De albumtrack is een popnummer met stampende drums. Een hiphopremix van “Bad Blood”, met de Amerikaanse rapper Kendrick Lamar en aanvullende productie door Ilya, werd uitgebracht als vierde single uit 1989 op 17 mei 2015 door Big Machine en Republic 1. Het nummer is een popnummer met stampende drums.
2. Een hiphopremix van "Bad Blood", met de Amerikaanse rapper Kendrick Lamar en aanvullende productie door Ilya, werd op 1989 mei 17 uitgebracht als vierde single uit 2015 door Big Machine en Republic Records.
3. De tekst gaat over gevoelens van verraad door een goede vriend.
4. Bij de release van het album uitten critici gemengde meningen over "Bad Blood", waarbij sommigen Swift's

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Wat zijn de hoogtepunten van de Apollo 11-missie?

### Invoer:
Apollo 11 (16-24 juli 1969) was de Amerikaanse ruimtevlucht die voor het eerst mensen op de maan liet landen. Commandant Neil Armstrong en piloot Buzz Aldrin van de maanmodule landden de Apollo Lunar Module Eagle op 20 juli 1969 om 20:17 UTC en Armstrong werd de eerste persoon die zes uur en 39 minuten later, op 21 juli om 02:56 UTC, op het maanoppervlak stapte. Aldrin voegde zich 19 minuten later bij hem en ze brachten ongeveer tweeëneenhalf uur samen door met het verkennen van de plek die ze bij de landing Tranquility Base hadden genoemd. Armstrong en Aldrin verzamelden 47.5 pond (21.5 kg) aan maanmateriaal om mee terug te nemen naar de aarde terwijl piloot Michael Collins de Command Module Columbia in een baan om de maan vloog en 21 uur en 36 minuten op het maanoppervlak was voordat ze werden opgestegen om zich weer bij Columbia te voegen.

### Antwoord:

Apollo 11 was het hoogtepunt van een meerjarige ruimterace die werd aangewakkerd door de Koude Oorlog, wat leidde tot de landing van de eerste mensen op de maan door de Verenigde Staten. De missie had 3 bemanningsleden, vereiste meerdere jaren van voorbereiding en bestond uit 8 belangrijke fasen: lancering, vlucht, baan om de maan, afdaling op de maan, landing, operaties op het maanoppervlak, beklimming op de maan, terugkeer, plons en quarantaine. De Apollo 11-missie is nog steeds de beroemdste missie ooit in het NASA-programma. De 3 astronauten waren Michael Collins, Buzz Aldrin en Neil Armstrong. De Apollo 11-missie was een historische gebeurtenis die de loop van de menselijke geschiedenis veranderde. Het was de eerste keer dat mensen op de maan landden en het was de eerste keer dat mensen op de maan liepen. De missie was een succes en het was een grote stap voorwaarts in de verkenning van de ruimte. De missie was ook een grote stap voorwaarts in de verkenning van de maan en het was een grote stap voorwaarts in de verkenning van de maan en het was een grote stap voorwaarts in de verkenning De Apollo 11-missie was de eerste bemande missie om mensen op de maan te laten landen. De missie werd geleid door Neil Armstrong en Buzz Aldrin, die de Apollo Lunar Module Eagle op 20 juli 1969 om 20:17 UTC landden en Armstrong werd de eerste persoon die zes uur en 39 minuten later, op 21 juli om 02:56 UTC, voet zette op het oppervlak van de maan. Aldrin voegde zich 19 minuten later bij hem en ze brachten ongeveer twee en een

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Haal de belangrijkste elementen uit de alinea over Apple en vermeld ze in opsommingstekens

### Invoer:
Apple Inc. is een Amerikaans multinationaal technologiebedrijf met het hoofdkantoor in Cupertino, Californië. Apple is het grootste technologiebedrijf qua omzet, met een totaal van US$ 394.3 miljard in 2022. Vanaf maart 2023 is Apple het grootste bedrijf ter wereld qua marktkapitalisatie. Vanaf juni 2022 is Apple de vierde grootste leverancier van personal computers qua verkoop en de tweede grootste fabrikant van mobiele telefoons. Het is een van de Big Five Amerikaanse informatietechnologiebedrijven, naast Alphabet (bekend van Google), Amazon, Meta (bekend van Facebook) en Microsoft.

Apple werd op 1 april 1976 opgericht als Apple Computer Company door Steve Wozniak, Steve Jobs en Ronald Wayne om Wozniaks Apple I personal computer te ontwikkelen en te verkopen. Het werd in 1977 door Jobs en Wozniak opgericht als Apple Computer, Inc. De tweede computer van het bedrijf, de Apple II, werd een bestseller en een van de eerste massaal geproduceerde microcomputers. Apple ging in 1980 naar de beurs en was direct financieel succesvol. Het bedrijf ontwikkelde computers met innovatieve grafische gebruikersinterfaces, waaronder de originele Macintosh uit 1984, die dat jaar werd aangekondigd in een door critici geprezen advertentie. In 1985 zorgden de hoge kosten van de producten en de machtsstrijd tussen leidinggevenden voor problemen. Wozniak stapte in goed overleg uit Apple en ging andere ondernemingen nastreven, terwijl Jobs verbitterd ontslag nam en NeXT oprichtte, waarbij hij een aantal Apple-werknemers meenam.

Naarmate de markt voor personal computers in de jaren negentig groeide en evolueerde, verloor Apple aanzienlijk marktaandeel aan het goedkopere duopolie van het Microsoft Windows-besturingssysteem op Intel-aangedreven pc-klonen (ook bekend als "Wintel"). In 1990, weken voor het faillissement, kocht het bedrijf NeXT om Apple's mislukte strategie voor besturingssystemen op te lossen en Jobs terug te lokken naar het bedrijf. In het daaropvolgende decennium leidde Jobs Apple terug naar winstgevendheid door een aantal tactieken, waaronder de introductie van de iMac, iPod, iPhone en iPad met lovende kritieken, de lancering van de "Think different"-campagne en andere gedenkwaardige reclamecampagnes, de opening van de Apple Store-winkelketen en de overname van talloze bedrijven om het productportfolio van het bedrijf uit te breiden. Toen Jobs in 1997 om gezondheidsredenen aftrad en twee maanden later overleed, werd hij als CEO opgevolgd door Tim Cook.

Apple werd het eerste beursgenoteerde Amerikaanse bedrijf dat in augustus 1 meer dan $ 2018 biljoen waard werd, vervolgens $ 2 biljoen in augustus 2020 en $ 3 biljoen in januari 2022. In januari 2023 werd het gewaardeerd op ongeveer $ 2.2 biljoen. Het bedrijf krijgt kritiek op de arbeidspraktijken van zijn contractanten, zijn milieupraktijken en zijn bedrijfsethiek, waaronder anticoncurrentiepraktijken en materiaalinkoop. Niettemin heeft het bedrijf een grote aanhang en geniet het een hoge mate van merkloyaliteit. Het wordt gerangschikt als een van 's werelds meest waardevolle merken.

### Antwoord:

1. Apple is een Amerikaans multinationaal technologiebedrijf met een omzet van ruim 394.3 miljard dollar in 2022.

2. Apple is de vierde grootste leverancier van personal computers op basis van verkoopaantallen en de op één na grootste fabrikant van mobiele telefoons.

3. Apple werd op 1 april 1976 opgericht door Steve Jobs, Steve Wozniak en Rold Wayne.

4. Steve Jobs leidde Apple naar winstgevendheid door een aantal tactieken, waaronder de introductie van de iMac, iPod, iPhone en iPad toen het bedrijf met verliezen kampte.

5. Apple was in augustus 1 het eerste beursgenoteerde Amerikaanse bedrijf dat een waarde van meer dan 2018 biljoen dollar had.

1. Apple Inc. is een Amerikaans multinationaal technologiebedrijf met het hoofdkantoor in Cupertino, Californië. Apple is het grootste technologiebedrijf qua omzet, met een totaal van US$ 394.3 miljard in 2022. Vanaf maart 2023 is Apple het grootste bedrijf ter wereld qua marktkapitalisatie. Vanaf juni 2022 is Apple de vierde grootste leverancier van personal computers qua verkoop en de op één na grootste fabrikant van mobiele telefoons. Het is een van de Big Five Amerikaanse informatietechnologiebedrijven, naast Alphabet (bekend van Google 1. Apple Inc. is een Amerikaans multinationaal technologiebedrijf met hoofdkantoor in Cupertino, Californië.
2. Apple is het grootste technologiebedrijf qua omzet, met een totale omzet van 394.3 miljard dollar in 2022.
3. Vanaf maart 2023 is Apple het grootste bedrijf ter wereld qua marktkapitalisatie.
4. Sinds juni 2022 is Apple de vierde grootste leverancier van personal computers op basis van verkoopaantallen en de op één na grootste fabrikant van mobiele telefoons.
5. Het is een van de vijf grootste Amerikaanse informatiebronnen

Resultaten voor het verfijnen van het Meta Llama 3.2 1B-tekstgeneratiemodel op de Dialogsum-dataset

Ingangen Grond waarheid Reactie van niet-gefinetuned model Reactie van verfijnd model

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Wauw, Amy, kijk eens naar dat getal.
#Persoon2#: Wat is er zo geweldig aan?
#Person1#: Wat bedoel je? Het is een oefenwedstrijd.
#Persoon2#: Ik niet, ik zou daar nog niet dood in gevonden willen worden.
#Persoon1#: Ik hou van dat soort dingen.
#Person2#: Ja, het lijkt erop dat je die stijlen wel leuk vindt.
#Person1#: Zeker wel. Ik vind het leuk om er punk uit te zien.
#Persoon2#: Deze ziet er wel heel duur uit.
#Person1#: Het maakt me niet uit hoeveel het kost. Ik baad erin.
#Person2#: Wat een geluk! Ik kan niks anders kopen. Ik ben blut.
#Persoon1#: Ik heb mijn feestoutfit vervangen, die ik vorige week had weggegooid.
#Person2#: Waarom heb je mij hierin meegesleept? Ik heb een week salaris uitgegeven.
#Person1#: Ben je eerlijk? Jij bent degene die mij belde, weet je nog?
#Person2#: Ik maak maar een grapje, T. Ik heb prachtige kleren. Laten we eens goed naar je outfit kijken.

### Antwoord:

#Person1# heeft de feestoutfit vernield, dus #Person1# heeft een vervanging nodig. Amy grapt dat ze blut is. Ze gaan dan de outfit bekijken. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel.
#Person2#: Ik vind het geweldig. Het is een beetje van alles.
#Persoon1#:
 #Persoon1# en Amy hebben het over het nummer van Amy's outfit. #Persoon1# is dol op dat soort dingen en Amy is blut.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Wie denkt hij wel dat hij is? Ik kan niet geloven hoe mijn baas de laatste tijd iedereen commandeert. Het lijkt wel alsof hij de CEO is, of zoiets.
#Person2#: Eh... Eigenlijk gok ik dat je de MEMO niet hebt gekregen. Je baas is geselecteerd om de vacature voor de CEO-positie in te vullen. Hij is nu daadwerkelijk de CEO, of zal dat zijn, zodra de officiële persberichten en heisa voorbij zijn.
#Person1#: Oei! Je maakt een grapje, toch? Ik kan het niet geloven. Geen wonder dat hij de laatste tijd zo gestrest en bazig is. Ik dacht dat hij gewoon ostentatief was door bevelen te geven aan mensen en alle verschillende afdelingen. Wat een grote schoenen om te vullen!
#Person2#: Echt waar! Toen de laatste CEO vertrok, maakten we ons zorgen over de toekomst van het bedrijf.
#Person1#: Wat doet een CEO eigenlijk? Ik weet dat de CEO het meeste geld verdient in het bedrijf, maar wat doet hij eigenlijk?
#Person2#: Hij is verantwoordelijk tegenover de raad van bestuur voor alles wat er in het bedrijf gebeurt. Hij of zij moet leiding geven aan alle functionarissen van het bedrijf, aangezien de CEO ook verantwoordelijk is voor het geven van leiding aan de filosofie van het bedrijf en het optreden als officiële vertegenwoordiger of gezicht van het bedrijf.
#Persoon1#: Moet wel een slimme kerel zijn.

### Antwoord:

#Persoon1# klaagt over de stijl van de CEO. #Persoon2# zegt dat de baas al een kandidaat-CEO is. #Persoon2# beantwoordt de vraag van #Persoon1# over de functie van de CEO in een bedrijf. #Person1#: Ik denk dat je gelijk hebt. Ik bedoel, ik kan niet geloven dat mijn baas de CEO is. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de  #Persoon1# vindt dat de baas van #Persoon1# zich de laatste tijd bazig gedraagt. #Persoon2# vertelt #Persoon1# dat de baas van #Persoon2# nu de CEO is. #Persoon1# denkt dat het een grote schoen is om te vullen.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Waarvoor dient een woning in het zuidelijke berggebied?
#Persoon2#: Dat hangt af van het type huis dat u zoekt.
#Persoon1#: Wij zijn op zoek naar een huis met drie slaapkamers.
#Persoon2#: Wat is uw algemene prijsbereik?
#Persoon1#: Minder dan 300 RIB, denken we.
#Person2#: Umm, ik denk dat ik moeilijk iets in die categorie in dit gebied zou kunnen vinden. Weet je, de omgeving in het zuidelijke bergdistrict is het mooist.
#Persoon1#: Wat dacht je van een huis met twee slaapkamers?
#Persoon2#: Een huis met twee slaapkamers kost in dit gebied doorgaans ongeveer 250 RIB.
#Persoon1#: Ik snap het.
#Person2#: Ik raad je aan om een ​​huis met twee slaapkamers te kopen. Het is erg geschikt voor een stel, en sommige huizen met twee slaapkamers zijn groot genoeg voor een gezin met één kind.
#Persoon1#: Oké, ik zal er rekening mee houden.

### Antwoord:

#Persoon1# wil een huis met drie slaapkamers voor minder dan 300,000 RIB. #Persoon2# stelt voor om een ​​huis met twee slaapkamers te kopen voor een gezin met één kind voor ongeveer 250 RIB. #Persoon1#: Waarvoor dient een woning in het zuidelijke berggebied?
#Persoon2#: Dat hangt af van het type huis dat u zoekt.
#Persoon1#: Wij zijn op zoek naar een huis met drie slaapkamers.
#Persoon2#: Wat is uw algemene prijsbereik?
#Persoon1#: Minder dan 300 RIB, denken we.
#Person2#: Umm, ik denk dat ik moeilijk iets in die categorie in dit gebied zou kunnen vinden. Weet je, de omgeving in het zuidelijke bergdistrict is het mooist.
#Persoon1#: Wat dacht je van een huis met twee slaapkamers?
#Persoon2#: Een huis met twee slaapkamers kost in dit gebied doorgaans ongeveer 250 RIB.
#Persoon1#: Ik snap het.
#Person2#: Ik raad je aan om een ​​huis met twee slaapkamers te kopen. Het is erg geschikt voor een stel, en sommige huizen met twee slaapkamers zijn groot genoeg voor een gezin met één kind.
#Persoon1#: Oké, ik zal er rekening mee houden.
#Persoon1# en #Persoon2# zijn op zoek naar een huis met drie slaapkamers. #Persoon2# raadt #Persoon1# aan om een ​​huis met twee slaapkamers te kopen.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Person1#: Meneer Sharp, bedankt voor dit interview. Dus mijn eerste vraag is: bent u tevreden met uw leven?
#Person2#: Ben ik blij? Je weet misschien dat je de eerste bent die mij deze vraag rechtstreeks heeft gesteld. De anderen durfden het niet omdat ze bang waren dat ik ja zou zeggen. Ze wilden dat ik nee zou zeggen zodat ze verhalen over mij konden verzinnen.
#Persoon1#: Wat voor verhalen?
#Person2#: Brian Sharpe, auteur van meer dan 100 historische romans, woont in een eenzaam huis op 30 mijl afstand van Sydney. Maar is hij gelukkig?
#Persoon1#: Is dat de reden dat je zoveel interviews hebt geweigerd?
#Person2#: Ik ben het zat om te horen dat ik ongelukkig moet zijn omdat ik rijk en succesvol ben. Ik ben niet ongelukkig.
#Person1#: Begrepen. En ik vraag me af of jij een soortgelijk schrijfpatroon volgt.
#Person2#: Ik weet wat je bedoelt. Schrijf ik soortgelijke verhalen? Ik zeg nee.
#Persoon1#: Hoe creëer je je helden?
#Person2#: Mijn helden leven? Ze denken voor zichzelf. Al hun verhalen zijn gebaseerd op het leven, mijn leven, het leven van mijn vrienden, inclusief mijn vrienden in veel boeken.
#Persoon1#: Lijkt mij een goed idee.

### Antwoord:

#Person1# interviewt Mr. Sharp. Mr. Sharp vertelt #Person1# dat hij gelukkig is en dat hij geen vergelijkbare verhalen schrijft. Zijn verhalen zijn uit het leven gegrepen. #Person1#: Ik ben blij dat je blij bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Meneer Sharp is blij met zijn leven. Hij vertelt #Person1# dat hij geen vergelijkbaar schrijfpatroon volgt. Hij denkt voor zichzelf en al zijn verhalen zijn uit het leven gegrepen.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Wat is de weersvoorspelling voor vandaag?
#Persoon2#: Bewolkt in de ochtend, zwaar bewolkt in de middag.
#Persoon1#: Regent het?
#Persoon2#: Nee, maar het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.

### Antwoord:

#Persoon2# vertelt #Persoon1# wat de weersvoorspelling voor vandaag is. #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon2#: Het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.
#Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon2#: Het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.
#Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon2#: Het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.
#Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon2#: Het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.
#Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen.
#Persoon2#: Het zou me niet verbazen als het morgen regent.
#Person1#: Ik ook niet. Het lijkt al dagen op regen.
#Persoon2#:
#Persoon1# en #Persoon2# praten over de weersvoorspelling.

Resultaten voor het verfijnen van het Meta Llama 3.2 3B-tekstgeneratiemodel op de Dolly-dataset

Ingangen Grond waarheid Reactie van niet-gefinetuned model Reactie van verfijnd model

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Benadruk relevante feiten met betrekking tot Heidelberg

### Invoer:
Heidelberg (Duits: [Ààha…™dléb…õ Åk] (luister); Palts-Duits: Heidlberg) is een stad in de Duitse deelstaat Baden-Württemberg, gelegen aan de rivier de Neckar in het zuidwesten van Duitsland. Volgens de volkstelling van 2016 bedroeg de bevolking 159,914, waarvan ongeveer een kwart bestond uit studenten.

Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde stad in Baden-Württemberg. Heidelberg is onderdeel van de dichtbevolkte metropoolregio Rijn-Neckar.

De Universiteit van Heidelberg, opgericht in 1386, is de oudste universiteit van Duitsland en een van de meest gerenommeerde universiteiten van Europa. Heidelberg is een wetenschappelijk knooppunt in Duitsland en de thuisbasis van verschillende internationaal gerenommeerde onderzoeksfaciliteiten grenzend aan de universiteit, waaronder het European Molecular Biology Laboratory en vier Max Planck Instituten. De stad is ook een knooppunt voor de kunsten, met name literatuur, door de eeuwen heen, en het werd aangewezen als "Stad van de Literatuur" door het UNESCO Creative Cities Network.

Heidelberg was de regeringszetel van het voormalige keurvorstendom de Palts en is een populaire toeristische bestemming vanwege het romantische stadsbeeld, met onder meer het kasteel van Heidelberg, het Filosofenpad en de barokke oude binnenstad.

### Antwoord:

Heidelberg heeft de oudste universiteit van Duitsland. De stad is een wetenschappelijk knooppunt en de thuisbasis van verschillende internationaal gerenommeerde onderzoeksfaciliteiten. Het werd door het UNESCO Creative Cities Network aangewezen als "City of Literature". Heidelberg is een stad in de Duitse deelstaat Baden-Württemberg, gelegen aan de rivier de Neckar in het zuidwesten van Duitsland. Volgens de volkstelling van 2016 bedroeg de bevolking 159,914, waarvan ongeveer een kwart bestond uit studenten. Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde grootste stad in Baden-Württemberg. Heidelberg maakt deel uit van de dichtbevolkte metropoolregio Rijn-Neckar.

Heidelberg is een stad in de Duitse deelstaat Baden-Württemberg, gelegen aan de rivier de Neckar in het zuidwesten van Duitsland. Volgens de volkstelling van 2016 bedroeg de bevolking 159,914, waarvan ongeveer een kwart bestond uit studenten.

Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde stad in Baden-Württemberg. Heidelberg is onderdeel van de dichtbevolkte metropoolregio Rijn-Neckar.

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Wat is de Indianapolis 500?

### Invoer:
De Indianapolis 500, formeel bekend als de Indianapolis 500-Mile Race en algemeen bekend als de Indy 500, is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekendstaat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak in de herfst van 1909 met baksteen werd geplaveid. Eén meter baksteen is nog zichtbaar bij de start/finishlijn. Het evenement, aangekondigd als The Greatest Spectacle in Racing, wordt beschouwd als onderdeel van de Triple Crown of Motorsport, samen met de 24 uur van Le Mans en de Grand Prix van Monaco, waarmee het doorgaans een datum deelt.

### Antwoord:

De Indianapolis 500, formeel bekend als de Indianapolis 500-Mile Race en algemeen bekend als de Indy 500, is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekendstaat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak in de herfst van 1909 met baksteen werd geplaveid. Eén meter baksteen is nog zichtbaar bij de start/finishlijn. Het evenement, aangekondigd als The Greatest Spectacle in Racing, wordt beschouwd als onderdeel van de Triple Crown of Motorsport, samen met de 24 uur van Le Mans en de Grand Prix van Monaco, waarmee het doorgaans een datum deelt.

De inaugurele race werd gehouden in 1911 en werd gewonnen door Ray Harroun. Het evenement vierde zijn 100-jarig jubileum in 2011 en de 100e editie werd gehouden in 2016. Het evenement werd twee keer stilgelegd, van 1917 tot 1918 vanwege de Eerste Wereldoorlog en van 1942 tot 1945 vanwege de Tweede Wereldoorlog. In twee verschillende periodes maakte de race deel uit van de FIA ​​World Championships; tussen 1925 en 1928 het World Manufacturers' Championship en tussen 1950 en 1960 het World Drivers' Championship.

Marcus Ericsson is de huidige kampioen. De meest succesvolle coureurs zijn AJ Foyt, Al Unser Sr., Rick Mears en H√©lio Castroneves, die de race elk vier keer hebben gewonnen. De actieve coureur met de meeste overwinningen is H√©lio Castroneves. Rick Mears heeft het record voor de meeste pole positions in zijn carrière met zes. De meest succesvolle auto-eigenaar is Roger Penske, eigenaar van de Indianapolis Motor Speedway en Team Penske, dat in totaal 18 overwinningen en 18 poles heeft. Penske heeft ook vijf overwinningen behaald bij de IndyCar Grand Prix, gehouden op het gecombineerde stratencircuit.

Het evenement is doordrenkt van traditie, met ceremonies voor de race, vieringen na de race en raceprocedures. De meest opmerkelijke en populairste tradities zijn het veld van 33 auto's die drie naast elkaar staan ​​opgesteld voor de start, het jaarlijkse zingen van het refrein van "Back Home Again in Indiana" en de fles melk van de overwinningsbaan. Ook uniek is dat de coureur voor de kwalificatie vier, in plaats van één, getimede ronden moet voltooien. De kwalificatie heeft een apart weekend. Het officiële aantal bezoekers wordt niet bekendgemaakt door het management van Speedway, maar de permanente zitcapaciteit is meer dan 250,000 en bezoekers van het binnenveld verhogen het aantal bezoekers op de racedag tot ongeveer 300,000.

De Indianapolis 500 is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekend staat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak is geplaveid in De Indianapolis 500 is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekend staat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak is geplaveid in

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Welke interessante feiten over Nelson Mandel Boulevard worden in deze paragraaf beschreven?

### Invoer:
Nelson Mandela Boulevard (Perzisch: ÿ®ŸÑŸàÿßÿ± ŸÜŸÑÿ≥ŸàŸÜ ŸÖÿߟÜÿØŸÑÿß) (oude naam: Jordan Street en Africa Boulevard) nog steeds bekend als Jordan is een welvarende en hogere klasse wijk in het noorden van Teheran, en sommige mensen trekken overeenkomsten tussen Jordan District als zijnde vergelijkbaar met Kensington District in Londen, VK, aangezien het gebied een mix is ​​van residentiële en commerciële locaties, gevuld met de huizen en bedrijven van veel politici, diplomaten, expats en kunstenaars. Voor de Iraanse Revolutie in 1979 heette het Jordan Street, vernoemd naar de Amerikaanse presbyteriaanse missionaris Samuel M. Jordan en was het een van de populairste straten in Teheran, Iran. De laatste jaren omgedoopt tot Nelson Mandela Boulevard, is het een van de beroemdste straten in Noord-Teheran na Valiasr Street, de langste conventionele straat in het Midden-Oosten, die een zuid-noord as overspant. Het staat ook bekend als een van de levendigste straten van Teheran, met zelfs om 2:00 uur 's nachts in de zomer regelmatig files.

### Antwoord:

Het herbergt een mix van residentiële en commerciële locaties van burgers uit de hogere klasse, zoals politici, diplomaten, expats en kunstenaars. Het heette vroeger Jordan Street voor de Iraanse revolutie. Het is een van de beroemdste straten van Teheran, met zelfs om 2:00 uur 's nachts in de zomer regelmatig files. Nelson Mandela Boulevard is een straat in Teheran, Iran. Het is een van de beroemdste straten in Noord-Teheran na Valiasr Street, de langste conventionele straat in het Midden-Oosten, die een zuid-noord as overspant. Het staat ook bekend als een van de levendigste straten van Teheran, met zelfs om 2:00 uur 's nachts in de zomer regelmatig files. De straat is vernoemd naar de Zuid-Afrikaanse anti-apartheidsrevolutionair en voormalig president van Zuid-Afrika, Nelson Mandela. 1. Nelson Mandela Boulevard is een straat in het noorden van Teheran, Iran.
2. Het is vernoemd naar de Amerikaanse presbyteriaanse missionaris Samuel M. Jordan.
3. De laatste jaren is de naam veranderd naar Nelson Mandela Boulevard.
4. Het is een van de beroemdste straten in Noord-Teheran.
5. Het staat ook bekend als een van de levendigste straten van Teheran.

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Wat zijn de Wimbledon-kampioenschappen?

### Invoer:
De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019.

### Antwoord:

De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019.

Wimbledon is een van de vier Grand Slam-tennistoernooien, de andere zijn de Australian Open, de French Open en de US Open. Wimbledon is het enige grote toernooi dat nog steeds op gras wordt gespeeld, het traditionele tennisveld. Het is ook het enige Grand Slam-toernooi dat een avondklok heeft, hoewel wedstrijden nu tot 11.00 uur onder de schijnwerpers kunnen doorgaan.

Het toernooi vindt traditioneel plaats gedurende twee weken eind juni en begin juli, beginnend op de laatste maandag in juni en eindigend met de Ladies' and Gentlemen's Singles Finals, gepland voor de zaterdag en zondag aan het einde van de tweede week. Er worden elk jaar vijf grote evenementen gehouden, met daarnaast ook junior- en invitational-wedstrijden. In 2009 werd het Centre Court van Wimbledon voorzien van een uitschuifbaar dak om het verlies van speeltijd door regen te verminderen. Vanaf 1 was er een dak operationeel boven baan nr. 2019, toen een aantal andere verbeteringen werden doorgevoerd, waaronder het toevoegen van zachte stoelen, een tafel en 10 onafhankelijk bedienbare camera's per baan om de wedstrijden vast te leggen.

Wimbledon-tradities omvatten een strikte, geheel witte dresscode voor deelnemers en koninklijke bescherming. Aardbeien met room worden traditioneel gegeten tijdens het toernooi. In tegenstelling tot andere toernooien is de reclame minimaal en bescheiden van officiële leveranciers zoals Slazenger en Rolex. De relatie met Slazenger is 's werelds langstlopende sportsponsoring, die sinds 1902 ballen voor het toernooi levert.

Vanwege de COVID-19-pandemie werd Wimbledon 2020 geannuleerd, de eerste annulering van het toernooi sinds de Tweede Wereldoorlog. De verplaatste 134e editie werd gehouden van 28 juni 2021 tot 11 juli 2021, na de annulering van 2020. De 135e editie werd gespeeld tussen 27 juni 2022 en 10 juli 2022, en de reguliere speeltijd vond voor het eerst plaats op de middelste zondag. Het markeert de honderdste verjaardag van de inaugurele kampioenschappen die werden gehouden op het Centre Court. De ATP, ITF en WTA kenden geen rankingpunten toe voor het toernooi van 2022, vanwege controverse over het toernooi waarin spelers uit Rusland en Wit-Rusland werden uitgesloten.

De Wimbledonkampioenschappen van 2023 zijn de 136e editie en vinden plaats van 3 tot en met 2023 juli 16. Het is het eerste evenement van koning Charles III sinds het overlijden van de voormalige beschermvrouwe, koningin Elizabeth II, op 2023 september 8.

De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019. Het toernooi bestaat uit vijf enkelspelen voor mannen en vijf enkelspelen voor vrouwen. Het enkelspel voor mannen is het meest prestigieuze van de vijf enkelspelen voor mannen, en De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019.

Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit.

### Instructie:
Welke verschillende soorten hondenvachten zijn er?

### Invoer:
De vacht van huishonden kent twee varianten: "dubbel" is bekend bij honden (en wolven) die afkomstig zijn uit koudere klimaten, bestaande uit een grof dekhaar en een zacht donshaar, of "enkel", met alleen de bovenvacht. Rassen kunnen af ​​en toe een "bles", streep of "ster" van witte vacht op hun borst of onderkant hebben. Vroegtijdig grijs worden kan bij honden al vanaf één jaar voorkomen; dit wordt geassocieerd met impulsief gedrag, angstig gedrag, angst voor lawaai en angst voor onbekende mensen of dieren.

### Antwoord:

De vacht van een hond varieert afhankelijk van het ras. Meestal kan een hond een "dubbele" vacht of een "enkele" vacht hebben. "Dubbele" vachten zijn afkomstig van rassen die in koudere klimaten leven. Dit type vacht bestaat uit een grof dekhaar en een zacht donshaar. Honden met een "enkele" vacht hebben alleen de bovenvacht. De vachten van huishonden zijn er in twee soorten: "dubbel" is bekend bij honden (en wolven) die afkomstig zijn uit koudere klimaten, bestaande uit een grof dekhaar en een zacht donshaar, of "enkel", met alleen de bovenvacht. Rassen kunnen af ​​en toe een "bles", streep of "ster" van witte vacht op hun borst of onderkant hebben. Vroegtijdig grijs worden kan bij honden al vanaf één jaar voorkomen; dit wordt geassocieerd met impulsief gedrag Er zijn twee soorten vachten bij honden: dubbele en enkele. Dubbele vachten bestaan ​​uit een grof dekharen en een zacht donshaar. Enkele vachten hebben alleen een bovenvacht.

Resultaten voor het verfijnen van het Meta Llama 3.2 3B-tekstgeneratiemodel op de Dialogsum-dataset

Ingangen Grond waarheid Reactie van niet-gefinetuned model Reactie van verfijnd model

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Person1#: Farmington? Zou je eens naar deze catalogusadvertenties willen kijken die Roger deed? Ik denk niet dat we ze kunnen gebruiken.
#Person2#: Hmm. Ik snap wat je bedoelt. Heb je met Roger gesproken? Hij doet meestal beter werk dan dit.
#Person1#: Ik weet het, meneer Farmington. Maar ik weet niet zeker of ik dit met hem moet bespreken. Ik denk dat het beter is als u met hem praat.
#Person2#: Oké. Laat deze advertenties maar bij mij achter. Ik spreek hem vanmorgen wel.

### Antwoord:

#Person1# en Farmington zijn ontevreden over de advertenties die Roger heeft gemaakt. Farmington zal met Roger praten. Het gesprek tussen Person1 en Person2 draait om een ​​reeks catalogusadvertenties die Person1 heeft gevonden. Person1 uit zijn zorgen over de kwaliteit van de advertenties, en suggereert dat ze mogelijk niet geschikt zijn voor gebruik. Person2 is het eens met Person1's zorgen en stelt voor dat ze met Roger praten, de persoon die verantwoordelijk is voor het maken van de advertenties. Person2 biedt aan om de advertenties te bekijken en 's ochtends met Roger te praten, en geeft aan dat ze het probleem zullen aanpakken. Het gesprek is gericht op het vinden van een oplossing voor het probleem met de catalogusadvertenties. #Persoon1# vindt de catalogusadvertenties niet goed. Dhr. Farmington zal met Roger spreken.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Kan ik u helpen?
#Person2#: Mijn dochter. Ze is vermist. Ik weet niet waar ze is.
#Persoon1#: Hoe ziet ze eruit?
#Persoon2#: Ze heeft blond haar en blauwe ogen.
#Persoon1#: Wat droeg ze?
#Persoon2#: Ze draagt ​​een gele jurk en rode sneakers.
#Persoon1#: Wanneer heb je haar voor het laatst gezien?
#Person2#: Ik zag haar net verderop in de straat. Ik weet niet waar ze is. Ik weet het niet. . .
#Persoon1#: Hoe lang is het geleden?
#Persoon2#: Oh, het is al eh... vijftien minuten.

### Antwoord:

#Persoon2# komt naar #Persoon1# om te melden dat de dochter van #Persoon2# vermist is. #Persoon1# vraagt ​​naar haar uiterlijk en verblijfplaats. Het gesprek tussen Person1 en Person2 draait om een ​​vermist kind. Person2 meldt dat hun dochter vermist is en Person1 biedt aan om te helpen. Person2 beschrijft het uiterlijk van het kind, inclusief haar blonde haar, blauwe ogen, gele jurk en rode sneakers. Person1 vraagt ​​naar de laatste keer dat Person2 het kind heeft gezien en wanneer dat was. Person2 vermeldt dat ze het kind verderop in de straat hebben gezien, maar ze zijn niet zeker van haar huidige locatie. Person1 dringt aan op meer informatie en vraagt ​​hoe lang het geleden is dat Person2 het kind voor het laatst heeft gezien. Person2 schat dat het 15 minuten geleden is. Het gesprek is een zoektocht naar informatie en een mogelijke aanwijzing om het vermiste kind te vinden. #Persoon2# vertelt #Persoon1# dat de dochter van #Persoon2# vermist is.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Hé Ray, wat ben je nu aan het doen?
#Person2#: Niet veel. Joann. Wil je afspreken?
#Person1#: Ja, dat doe ik. Ik zit zelf ook thuis en heb niet veel te doen.
#Person2#: Ik ook. Wat zou je willen doen?
#Person1#: Nou, we kunnen naar de film gaan. Heb je Shrek 2 gezien?
#Person2#: Dat heb ik, eigenlijk. Wat dacht je van de film Million Dollar Baby met Clint Eastwood?
#Person1#: Hmm. . . Dat heb ik ook gezien. We kunnen een wandeling in het park maken.
#Persoon2#: Dat zou kunnen, maar het lijkt erop dat het binnenkort gaat regenen.
#Person1#: Ik denk dat dat niet meer kan. Waarom gaan we niet winkelen?
#Person2#: Ik zou het echt liever niet doen. Ik zou te verleid worden om iets te kopen wat ik niet kan betalen!
#Person1#: Oké. Ik denk dat we dat dan ook niet zouden doen. Wat wil je doen?
#Person2#: Ik weet het niet. Wil je gaan bowlen op de nieuwe bowlingbaan op 1st street?
#Persoon1#: Ik zou het wel willen, maar ik heb afgelopen weekend mijn pols geblesseerd.
#Person2#: Laten we eens kijken. Wil je naar een bar gaan en wat karaoke zingen?
#Persoon1#: Dat klinkt interessant, maar ik mag geen alcohol drinken als ik medicijnen slik.
#Person2#: Klinkt niet alsof dat leuk is, dan. Wil je hierheen komen?
#Persoon1#: Ik heb geen auto.
#Persoon2#: Man, wat hebben we hier toch een gelukje, hè?
#Persoon1#: Nee. Heb je een auto?
#Persoon2#: Nee, maar ik kan wel de bus nemen.
#Person1#: Oh, goed. Waarom neem je niet de bus naar de mijne en kunnen we Mah Tiang spelen?
#Persoon2#: Dat klinkt geweldig! Heb je gegeten?
#Person1#: Nog niet. Ik kook het avondeten en zorg dat het klaar is tegen de tijd dat jij hier bent.
#Person2#: Perfect. Ben je bereid om mij al je geld te geven?
#Person1#: Huh? We gaan toch voor geld spelen?
#Person2#: Oh, ja. Dat denk ik wel. Zolang je belooft te verliezen!
#Persoon1#: Hé... zolang ik op zaterdagavond niet alleen ben, maakt het me niet zoveel uit wat ik doe!
#Persoon2#: Tot snel.
#Persoon1#: Dag!

### Antwoord:

Ray en Joann hebben thuis niet veel te doen en besluiten om uit te gaan. Ze bespreken een aantal keuzes, waaronder een film kijken, winkelen en naar een bar gaan. Maar uiteindelijk besluit Ray om naar Joanns huis te gaan. Ze gaan samen eten en Mah Tiang spelen. Ray en Joann bespraken wat ze op zaterdagavond zouden doen. Ze overwogen eerst om naar de film te gaan, maar besloten dat niet te doen vanwege de regen. Ze sloten ook winkelen uit omdat Joann bang was te veel geld uit te geven. Ray stelde voor om te gaan bowlen, maar Joanns geblesseerde pols maakte dat onmogelijk. Ze overwogen toen om naar een bar te gaan om karaoke te zingen, maar Ray kon niet drinken vanwege zijn medicatie. Joann stelde voor om naar Rays huis te komen, maar hij had geen auto. Ze besloten in plaats daarvan Mahjong te spelen en Joann vroeg of Ray had gegeten. Uiteindelijk besloten ze om een ​​potje Mahjong te spelen voor geld, waarbij Joann hoopte te winnen. Het gesprek eindigde met Ray die grapte dat het hem niet kon schelen wat hij deed, zolang hij maar niet alleen was op zaterdagavond. #Person1# en Ray zoeken iets om te doen. Ze proberen te beslissen over een film, een wandeling, winkelen, bowlen, karaoke en Mah Tiang. Uiteindelijk besluiten ze Mah Tiang te spelen.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Het weer in Beijing is prachtig!
#Persoon2#: De herfst is het beste seizoen in Beijing, weet je.
#Person1#: Ja, ik zie het. De zomerhitte is voorbij en de winterkou is nog ver weg.
#Persoon2#: Hoe is het weer in Washington op dit moment van het jaar?
#Persoon1#: De herfst is ook erg mooi in Washington.
#Persoon2#: Is het daar in de winter erg koud?
#Person1#: Nee, dat is het niet. Maar soms sneeuwt het veel in de winter.
#Persoon2#: Regent het daar in de zomer veel?
#Person1#: Oh ja! Soms regent het heel hard. Hoe zit het hier in Beijing?
#Persoon2#: In de zomer regent het veel, maar in de herfst regent het zelden.
#Persoon1#: Ik vind het hier nogal droog.
#Person2#: Dat is waar. Veel mensen uit het zuiden vinden het weer hier niet fijn.
#Persoon1#: Kom jij uit het zuiden?
#Person2#: Nee, ik kom uit het noorden. Ik ben geboren in Beijing, eigenlijk.
#Persoon1#: Ik snap het. Dus dit is je geboorteplaats?

### Antwoord:

#Persoon2# beschrijft het weer in de zomer, herfst en winter in Beijing en #Persoon1# vertelt over het weer in Washington.

Persoon1 en Persoon2 bespreken het weer in Beijing en Washington. Ze zijn het er allebei over eens dat de herfst een geweldig seizoen is in beide steden. Persoon1 vermeldt dat de zomerhitte voorbij is en de winterkou nog ver weg is, wat suggereert dat het weer in Beijing mild is in de herfst. Persoon2 vraagt ​​naar het weer in Washington en Persoon1 antwoordt dat de herfst daar ook aangenaam is. Ze bespreken het weer in Washington, waarbij Persoon2 vraagt ​​naar de kou in de winter en Persoon1 zegt dat het niet erg koud is, maar soms sneeuwt het. Persoon2 vraagt ​​vervolgens naar de regen in de zomer en Persoon1 zegt dat het hard regent. Persoon2 vermeldt dat Beijing veel regen heeft in de zomer, maar niet in de herfst, waar Persoon1 het mee eens is. Persoon1 vermeldt dat Beijing droog is in de herfst en Persoon2 zegt dat veel mensen uit het zuiden het weer daar niet prettig vinden. Persoon1 vraagt ​​of Persoon2 uit het zuiden komt en Persoon2 antwoordt dat ze uit het noorden komen en geboren zijn in Beijing. Persoon1 vraagt ​​vervolgens of Beijing de geboorteplaats van Persoon2 is en Persoon2 bevestigt dat dit zo is.

Let op: Het antwoord is een samenvatting van het gesprek, geen herformuleerde versie van de originele tekst. Het doel is om de belangrijkste punten en ideeën die tussen de twee mensen zijn besproken, vast te leggen.

Hier is het antwoord in een meer formele toon:

Het gesprek tussen Person1 en Person2 draait om het weer in Beijing en Washington. Ze waarderen allebei de schoonheid van de herfst in beide

#Persoon1# en #Persoon2# praten over het weer in Beijing en Washington. #Persoon2# komt uit het noorden en is geboren in Beijing.

Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat.

### Instructie:
#Persoon1#: Wat ga je dit weekend doen?
#Persoon2#: Mijn zwager organiseert een klein feestje bij hem thuis en hij heeft mij uitgenodigd.
#Persoon1#: Is het een familieaangelegenheid of alleen vrienden?
#Person2#: Een beetje van beide. Er zullen wat neven, nichten, tantes en ooms zijn, maar ook wat vrienden uit de buurt.
#Person1#: Gaat je oudoom Rick er ook zijn? Hij is echt grappig.
#Persoon2#: Ja, hij gaat daar zijn met zijn stiefzoon en zijn ex-vrouw.
#Persoon1#: Je bedoelt je zus?
#Persoon2#: Nee, Rick is eigenlijk mijn oudoom, dus hij is de broer van mijn grootmoeder.
#Persoon1#: Je bent me kwijt.
#Persoon2#: Ik leg het later uit, laten we beginnen.

### Antwoord:

De zwager van #Persoon2# nodigt #Persoon2# uit voor een klein samenzijn met #Persoon2#'s familieleden en vrienden. #Persoon1# is in de war over #Persoon2#'s familierelatie. Person1 en Person2 bespreken een weekendbijeenkomst bij Person2's zwager. Het evenement is een mix van familie en vrienden, met een aantal neven, nichten, tantes, ooms en buren die aanwezig zijn. Person1 vraagt ​​of Person2's oudoom Rick, die bekendstaat om zijn humor, aanwezig zal zijn. Person2 bevestigt dat Rick aanwezig zal zijn, samen met zijn stiefzoon en ex-vrouw, die Person2's zus is. Person1 lijkt verward over de familierelatie, en Person2 stemt ermee in om het later uit te leggen. Het gesprek is luchtig en informeel, met een focus op de aanstaande sociale bijeenkomst. #Persoon2# zal een kleine bijeenkomst bijwonen bij de zwager van #Persoon2#. #Persoon1# vraagt ​​#Persoon2# naar de mensen die er zullen zijn.

Opmaak van gegevenssets

We bieden momenteel twee soorten fine-tuning aan: instructiefine-tuning en domeinadaptatiefine-tuning. U kunt overschakelen naar een van de trainingsmethoden door de parameter op te geven instruction_tuned as True or False.

Domeinaanpassingsformaat

Het tekstgeneratiemodel kan worden verfijnd op elke domeinspecifieke dataset om domeinspecifieke kennis en taalpatronen op te nemen. Na het verfijnen op de domeinspecifieke dataset, wordt verwacht dat het model relevantere en nauwkeurigere tekst binnen dat domein genereert. Hoewel few-shot prompting het model ook kan leiden naar domeinspecifieke generatie, speelt het fine-tuningproces een cruciale rol bij het aanpassen van het begrip en de generatiemogelijkheden van het model aan het doeldomein. De combinatie van fine-tuning op domeingegevens en effectieve promptingtechnieken kan het model in staat stellen om verschillende NLP-taken binnen dat specifieke domein effectiever uit te voeren.

Voor invoer in het model gebruikt u een trainings- en optionele validatiedirectory. Elke directory bevat een CSV-, JSON- of TXT-bestand. Voor CSV- en JSON-bestanden worden de trein- of validatiegegevens gebruikt uit de kolom met de naam text of de eerste kolom als er geen kolom is aangeroepen text is gevonden. Het aantal bestanden dat wordt getraind en gevalideerd (indien aanwezig) moet respectievelijk gelijk zijn aan 1.

De uitvoer is een getraind model dat kan worden ingezet voor gevolgtrekking.

Het volgende is een voorbeeld van een TXT-bestand voor het verfijnen van het tekstgeneratiemodel. Het TXT-bestand is SEC-registratie van Amazon van 2021-2022:

This report includes estimates, projections, statements relating to our business plans, objectives, 
and expected operating results that are “forward- looking statements” within the meaning of the Private
 Securities Litigation Reform Act of 1995, Section 27A of the Securities Act of 1933, and Section 21E 
of the Securities Exchange Act of 1934. Forward-looking statements may appear throughout this report,
 including the following sections: “Business” (Part I, Item 1 of this Form 10-K), “Risk Factors” 
(Part I, Item 1A of this Form 10-K), and “Management’s Discussion and Analysis of Financial Condition
 and Results of Operations” (Part II, Item 7 of this Form 10-K). These forward-looking statements 
generally are identified by the words “believe,” “project,” “expect,” “anticipate,” “estimate,” 
“intend,” “strategy,” “future,” “opportunity,” “plan,” “may,” “should,” “will,” “would,” 
“will be,” “will continue,” “will likely result,” and similar expressions. Forward-looking 
statements are based on current expectations and assumptions that are subject to 
risks and uncertainties that may cause actual results to differ materially. 
We describe risks and uncertainties that could cause actual results and 
events to differ materially in “Risk Factors,” “Management’s Discussion and 
Analysis of Financial Condition and Results of Operations,” and “Quantitative 
and Qualitative Disclosures about Market Risk” (Part II, Item 7A of this Form 10-K). 
Readers are cautioned not to place undue reliance on forward-looking statements, 
which speak only as of the date they are made. We undertake no obligation 
to update or revise publicly any forward-looking statements, whether because 
of new information, future events, or otherwise. GENERAL Embracing Our Future ...

Instructie fijnafstemming

Het tekstgeneratiemodel kan op elke tekstdata instructie-afgestemd worden, mits de data in het verwachte formaat is. Het instructie-afgestemde model kan verder worden ingezet voor inferentie. Standaard is instructie-afstemming ingesteld op falseOm een ​​instructie-afstemmingsdataset te gebruiken, gebruikt u daarom instruction_tuned="True".

Voor invoer kunt u een training- en optionele validatiedirectory gebruiken. De training- en validatiedirectory's moeten een of meerdere JSON-regels (.jsonl) geformatteerde bestanden bevatten. In het bijzonder kan de train-directory ook een optioneel *.json-bestand bevatten dat de invoer- en uitvoerformaten beschrijft.

Het beste model wordt geselecteerd op basis van het validatieverlies, berekend aan het einde van elk tijdperk. Als er geen validatieset wordt opgegeven, wordt automatisch een (instelbaar) percentage van de trainingsgegevens gesplitst en gebruikt voor validatie.

De trainingsgegevens moeten worden opgemaakt in een JSON-regelsindeling (.jsonl), waarbij elke regel een woordenboek is dat één gegevensmonster vertegenwoordigt. Alle trainingsgegevens moeten in één map staan; het kan echter in meerdere .jsonl-bestanden worden opgeslagen. De bestandsextensie .jsonl is verplicht. De trainingsmap kan ook een template.json bestand dat de invoer- en uitvoerformaten beschrijft. Als er geen sjabloonbestand wordt opgegeven, wordt het volgende sjabloon gebruikt:

{
    "prompt": "Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.nn### Instruction:n{instruction}nn### Input:n{context}nn",
    "completion": "{response}"
}

In dit geval moeten de gegevens in de JSON-regels het volgende bevatten prompt en completion velden. Als er een aangepaste sjabloon wordt verstrekt, moet deze ook worden gebruikt prompt en completion toetsen om de invoer- en uitvoersjablonen te definiëren. Het volgende is een voorbeeld van een aangepaste sjabloon:

{
    "prompt": "question: {question} context: {context}",
    "completion": "{answer}"
}

Hier moeten de gegevens in de JSON-regelitems de question, context en answer te worden.

De uitvoer is een getraind model dat kan worden ingezet voor gevolgtrekking.

We bieden een subset van SEC-registratiegegevens van Amazon. Het wordt gedownload van openbaar beschikbaar EDGAR. Voor instructies over toegang tot de gegevens, zie Toegang tot EDGAR-gegevens.

Licentie: Creative Commons Attribution-ShareAlike-licentie (CC BY-SA 4.0)

Gerelateerde artikelen

spot_img

Recente artikelen

spot_img