generatieve AI modellen hebben een enorme groei doorgemaakt en bieden geavanceerde oplossingen voor tekstgeneratie, samenvatting, codegeneratie en vraagbeantwoording. Ondanks hun veelzijdigheid hebben deze modellen vaak moeite met het toepassen op niche- of domeinspecifieke taken, omdat hun pre-training doorgaans is gebaseerd op grote, gegeneraliseerde datasets. Om deze hiaten aan te pakken en hun bruikbaarheid in gespecialiseerde scenario's te maximaliseren, is finetuning met domeinspecifieke data essentieel om de nauwkeurigheid en relevantie te vergroten.
De onlangs gelanceerde Llama 3.2-serie van Meta zet een nieuwe maatstaf in generatieve AI met zijn geavanceerde multimodale mogelijkheden en geoptimaliseerde prestaties op diverse hardwareplatforms. De collectie omvat lichtgewicht modellen zoals Llama-3.2-1B en Llama-3.2-3B, die tot 128,000 contexttokens ondersteunen en zijn afgestemd op edge-apparaten. Deze modellen zijn ideaal voor toepassingen op het apparaat, zoals samenvatting in realtime, het volgen van instructies en het genereren van meertalige tekst. Aan de andere kant van het spectrum bieden de grotere Llama-3.2-11B- en Llama-3.2-90B-modellen krachtige, op visie gebaseerde mogelijkheden voor taken zoals beeldbegrip, documentanalyse en visuele aarding. Dit maakt geavanceerde use cases mogelijk, zoals het genereren van bijschriften voor afbeeldingen, het interpreteren van complexe grafieken en het redeneren over visuele gegevens. De Meta Llama 3.2-modellen kunnen bijvoorbeeld verkoopgegevens analyseren die in een grafiek worden gepresenteerd om bruikbare inzichten te bieden of specifieke objecten op een kaart te lokaliseren met behulp van instructies in natuurlijke taal.
In dit bericht laten we zien hoe je de nieuwste Llama 3.2-tekstgeneratiemodellen van Meta, Llama 3.2 1B en 3B, kunt verfijnen met behulp van Amazon SageMaker JumpStart voor domeinspecifieke toepassingen. Door gebruik te maken van de vooraf gebouwde oplossingen die beschikbaar zijn in SageMaker JumpStart en de aanpasbare Meta Llama 3.2-modellen, kunt u de verbeterde redenerings-, codegeneratie- en instructievolgmogelijkheden van de modellen ontgrendelen om ze aan te passen aan uw unieke use cases. Of u nu werkt in de financiële wereld, de gezondheidszorg of een ander gespecialiseerd vakgebied, door deze modellen te verfijnen, kunt u de kloof tussen algemene AI-mogelijkheden en domeinspecifieke expertise overbruggen.
Overzicht oplossingen
SageMaker JumpStart is een robuuste functie binnen de SageMaker machine learning (ML)-omgeving, die professionals een uitgebreide hub biedt van openbaar beschikbare en gepatenteerde foundation models (FM's). Deze beheerde service versnelt het ML-ontwikkelingsproces door toegang te bieden tot een groeiende lijst van geavanceerde modellen van toonaangevende modelhubs en -providers. U kunt FM's snel evalueren, vergelijken en selecteren op basis van vooraf gedefinieerde kwaliteits- en verantwoordelijkheidsmetrieken voor taken zoals artikelsamenvatting en beeldgeneratie.
SageMaker JumpStart maakt volledige aanpassing van vooraf getrainde modellen mogelijk om te voldoen aan specifieke use cases met behulp van uw eigen gegevens. Implementatie in productieomgevingen wordt gestroomlijnd via de gebruikersinterface of SDK, wat snelle integratie in applicaties mogelijk maakt. Het platform ondersteunt ook organisatorische samenwerking door het delen van artefacten, waaronder modellen en notebooks, toe te staan om modelbouw en implementatie te versnellen. Beheerders kunnen de zichtbaarheid van modellen binnen de organisatie beheren, wat governance en beveiliging verbetert.
Bovendien stelt SageMaker JumpStart professionals in staat om modellen te implementeren op speciale SageMaker-instanties binnen een netwerkgeïsoleerde omgeving, waarbij naleving en gegevensbescherming worden gehandhaafd. Door gebruik te maken van de robuuste trainings- en implementatiemogelijkheden die beschikbaar zijn in SageMaker, kunt u modellen aanpassen en schalen om efficiënt te voldoen aan diverse ML-vereisten.
Voorwaarden
Om deze oplossing met SageMaker JumpStart uit te proberen, hebt u de volgende vereisten nodig:
Meta Llama 3.2-tekstgeneratiemodellen nauwkeurig afstemmen
In deze sectie laten we zien hoe u Meta Llama 3.2-tekstgeneratiemodellen kunt finetunen. We bekijken eerst de aanpak van finetunen met behulp van de SageMaker Studio UI zonder code te hoeven schrijven. Vervolgens bespreken we hoe u het model kunt finetunen met behulp van SageMaker Python-SDK.
No-code fine-tuning met behulp van de SageMaker Studio UI
SageMaker JumpStart biedt toegang tot openbaar beschikbare en eigen FM's van externe en eigen providers. Datawetenschappers en ontwikkelaars kunnen snel prototypen en experimenteren met verschillende ML-use cases, waardoor de ontwikkeling en implementatie van ML-applicaties wordt versneld. Het helpt de tijd en moeite te verminderen die nodig is om ML-modellen vanaf nul te bouwen, waardoor teams zich kunnen richten op het verfijnen en aanpassen van de modellen voor hun specifieke use cases. Deze modellen worden vrijgegeven onder verschillende licenties die door hun respectievelijke bronnen worden aangewezen. Het is essentieel om de toepasselijke licentievoorwaarden te bekijken en na te leven voordat u deze modellen downloadt of gebruikt om er zeker van te zijn dat ze geschikt zijn voor uw beoogde use case.
U kunt de Meta Llama 3.2 FM's benaderen via SageMaker JumpStart in de SageMaker Studio UI en de SageMaker Python SDK. In deze sectie bespreken we hoe u deze modellen kunt ontdekken in SageMaker Studio.
SageMaker Studio is een IDE die een webgebaseerde visuele interface biedt voor het uitvoeren van de ML-ontwikkelingsstappen, van gegevensvoorbereiding tot modelbouw, training en implementatie. Raadpleeg voor instructies over hoe u aan de slag kunt gaan en SageMaker Studio kunt instellen Amazon SageMaker Studio.
- In SageMaker Studio krijgt u toegang tot SageMaker JumpStart door te kiezen snelle start in het navigatievenster.
U krijgt een lijst met openbare modellen te zien die SageMaker aanbiedt. Hier kunt u ook andere modellen van andere aanbieders bekijken.
- Om de Meta Llama 3.2-modellen te gaan gebruiken, klikt u hieronder Providers, kiezen meta.
U krijgt een lijst met de beschikbare modellen te zien.
- Kies het model Meta Llama 3.2 1B Instruct.
Hier kunt u de modeldetails bekijken en het model trainen, implementeren, optimaliseren en evalueren.
- Voor deze demonstratie kiezen we Trainen.
- Op deze pagina kunt u verwijzen naar de Amazon eenvoudige opslagservice (Amazon S3)-bucket met de trainings- en validatiegegevenssets voor verfijning.
- Daarnaast kunt u de implementatieconfiguratie, hyperparameters en beveiligingsinstellingen configureren voor nauwkeurige afstemming.
- Kies Verzenden om de trainingstaak op een SageMaker ML-instantie te starten.
- Accepteer de Llama 3.2 Community-licentieovereenkomst om het fine-tuningproces te starten.
Implementeer het model
Nadat het model is verfijnd, kunt u het implementeren met behulp van de modelpagina op SageMaker JumpStart. De optie om het verfijnde model te implementeren verschijnt wanneer het afstemmen is voltooid, zoals weergegeven in de volgende schermafbeelding.
U kunt het model ook implementeren vanuit deze weergave. U kunt endpointinstellingen configureren, zoals het instancetype, het aantal instances en de endpointnaam. U moet de End User License Agreement (EULA) accepteren voordat u het model kunt implementeren.
Fijnafstemming met behulp van de SageMaker Python SDK
U kunt Meta Llama 3.2-modellen ook finetunen met behulp van de SageMaker Python SDK. Een voorbeeldnotitieboek met de volledige instructies vindt u op GitHubHet volgende codevoorbeeld laat zien hoe u het Meta Llama 3.2 1B-model kunt verfijnen:
De code stelt een SageMaker JumpStart-schatter in voor het finetunen van het Meta Llama 3.2 large language model (LLM) op een aangepaste trainingsdataset. Het configureert de schatter met de gewenste model-ID, accepteert de EULA, schakelt instructie-afstemming in door in te stellen instruction_tuned="True"
, stelt het aantal trainingsepochs in en start het fijnafstemmingsproces.
Wanneer de fine-tuning-taak is voltooid, kunt u het fine-tuned model rechtstreeks vanuit de estimator implementeren, zoals weergegeven in de volgende code. Als onderdeel van de implementatie-instellingen kunt u het instancetype definiëren waarop u het model wilt implementeren. Raadpleeg de volledige lijst met implementatieparameters parameters implementeren in de SageMaker SDK-documentatie.
Zodra het eindpunt actief is, kunt u er als volgt een inferentieverzoek tegen uitvoeren met behulp van het predictorobject:
Voor de volledige lijst met voorspellende parameters, zie de voorspellend object in de SageMaker SDK-documentatie.
Fine-tuning techniek
Taalmodellen zoals Meta Llama zijn groter dan 10 GB of zelfs 100 GB. Het finetunen van zulke grote modellen vereist instanties met aanzienlijk meer CUDA-geheugen. Bovendien kan het trainen van deze modellen erg traag zijn vanwege hun grootte. Daarom gebruiken we voor efficiënte finetuning de volgende optimalisaties:
- Aanpassing op lage rang (LoRA) – Dit is een soort parameter efficiënte fijnafstemming (PEFT) voor efficiënte fine-tuning van grote modellen. Bij deze methode bevriezen we het hele model en voegen we slechts een kleine set aanpasbare parameters of lagen toe aan het model. In plaats van bijvoorbeeld alle 3 miljard parameters voor Meta Llama 3.2 3B te trainen, kunnen we minder dan 1% van de parameters fine-tunen. Dit helpt de geheugenvereiste aanzienlijk te verminderen, omdat we alleen gradiënten, optimizer-statussen en andere trainingsgerelateerde informatie voor slechts 1% van de parameters hoeven op te slaan. Bovendien helpt dit zowel de trainingstijd als de kosten te verminderen. Raadpleeg voor meer informatie over deze methode LoRA: aanpassing op laag niveau van grote taalmodellen.
- Int8-kwantisering – Zelfs met optimalisaties zoals LoRA vereisen modellen zoals Meta Llama 70B aanzienlijke rekenkracht voor training. Om de geheugenvoetafdruk tijdens training te verkleinen, kunnen we Int8-kwantisering gebruiken. Kwantisering vermindert doorgaans de precisie van de floating-point-gegevenstypen. Hoewel dit het geheugen vermindert dat nodig is om modelgewichten op te slaan, kan het de prestaties mogelijk verslechteren door verlies van informatie. Int8-kwantisering gebruikt echter slechts een kwart van de precisie in vergelijking met training met volledige precisie, maar het leidt niet tot aanzienlijke verslechtering van de prestaties. In plaats van simpelweg bits te laten vallen, rondt Int8-kwantisering de gegevens af van het ene type naar het andere, waarbij de essentiële informatie behouden blijft terwijl het geheugengebruik wordt geoptimaliseerd. Raadpleeg voor meer informatie over Int8-kwantisering int8(): 8-bits matrixvermenigvuldiging voor transformatoren op schaal.
- Volledig gedeelde gegevens parallel (FSDP) – Dit is een type data parallel trainingsalgoritme dat de parameters van het model verdeelt over data parallel workers en optioneel een deel van de trainingsberekening kan offloaden naar de CPU's. Hoewel de parameters verdeeld zijn over verschillende GPU's, is de berekening van elke microbatch lokaal voor de GPU-werker. Het verdeelt parameters gelijkmatiger en bereikt geoptimaliseerde prestaties door communicatie en overlappende berekeningen tijdens de training.
In de onderstaande tabel worden verschillende methoden met de twee Meta Llama 3.2-modellen vergeleken.
Model | JumpStart-model-ID's | Standaard instantietype | Ondersteunde instantietypen voor fijnafstemming |
Meta Lama 3.2 1B |
meta-textgeneration-llama-3-2-1b meta-textgeneration-llama-3-2-1b-instruct |
ml.g5.2xgroot |
ml.g5.2xgroot ml.g5.4xgroot ml.g5.8xgroot ml.g5.12xgroot ml.p3dn.24xgroot ml.g4dn.12xgroot ml.p5.48xgroot |
Meta Lama 3.2 3B |
meta-textgeneration-llama-3-2-3b meta-textgeneration-llama-3-2-3b-instruct |
ml.g5.12xgroot |
ml.g5.12xgroot ml.g5.24xgroot ml.g5.48xgroot ml.p3dn.24xgroot ml.g4dn.12xgroot ml.p5.48xgroot |
Andere instancetypen kunnen ook werken voor fine-tuning. Bij gebruik van p3-instances wordt de training uitgevoerd met 32-bits precisie omdat bfloat16
wordt niet ondersteund op deze instanties. Daarom zou de trainingstaak het dubbele aantal CUDA-geheugen verbruiken bij training op p3-instanties vergeleken met g5-instanties.
Formaat trainingsgegevensset
SageMaker JumpStart ondersteunt momenteel datasets in zowel domeinaanpassingsformaat als instructie-afstemmingsformaat. In deze sectie specificeren we een voorbeeldgegevensset in beide formaten. Voor meer details, zie de Opmaak van gegevenssets sectie in de bijlage.
Domeinaanpassingsformaat
U kunt het Meta Llama 3.2-tekstgeneratiemodel verfijnen op domeinspecifieke datasets, waardoor het relevante tekst kan genereren en verschillende taken voor natuurlijke taalverwerking (NLP) binnen een bepaald domein kan aanpakken met behulp van few-shot prompting. Dit verfijnen omvat het verstrekken van een dataset die specifiek is voor het doeldomein aan het model. De dataset kan in verschillende formaten zijn, zoals CSV-, JSON- of TXT-bestanden. Als u bijvoorbeeld het model wilt verfijnen voor het domein van financiële rapporten en indieningen, kunt u het voorzien van een tekstbestand met SEC-indieningen van een bedrijf als Amazon. Het volgende is een fragment uit zo'n indiening:
Instructie tuning formaat
Bij instructie-fine-tuning wordt het model verfijnd voor een set NLP-taken die worden beschreven met behulp van instructies. Dit helpt de prestaties van het model te verbeteren voor ongeziene taken met zero-shot-prompts. In instructie-tuning-datasetformaat specificeert u de template.json
bestand waarin de invoer- en uitvoerformaten worden beschreven en de train.jsonl
bestand met het trainingsgegevensitem op elke regel.
De template.json
bestand heeft altijd de volgende JSON-indeling:
De volgende tabel toont bijvoorbeeld de template.json
en train.jsonl
bestanden voor de datasets Dolly en Dialogsum.
dataset | Use Case | sjabloon.json | trein.jsonl |
popje | Vraag beantwoorden | { “instruction”: “Wie schilderde de Twee Apen”, “context”: “Twee Apen of Twee Geketende Apen is een schilderij uit 1562 van de Nederlandse en Vlaamse Renaissance-kunstenaar Pieter Bruegel de Oude. Het werk bevindt zich nu in de Gemäldegalerie (Schilderijengalerij) van de Staatliche Museen in Berlijn.”, “response”: “De twee Apen of Twee Geketende Apen is een schilderij uit 1562 van de Nederlandse en Vlaamse Renaissance-kunstenaar Pieter Bruegel de Oude. Het werk bevindt zich nu in de Gemaeldegalerie (Schilderijengalerij) van de Staatliche Museen in Berlijn.” } | |
Dialoogvenster | Tekstsamenvatting |
Ondersteunde hyperparameters voor training
Met het fine-tuningproces voor Meta Llama 3.2-modellen kunt u verschillende hyperparameters aanpassen, die elk factoren kunnen beïnvloeden zoals geheugengebruik, trainingssnelheid en de prestaties van het fine-tuned model. Op het moment dat dit bericht werd geschreven, zijn dit de standaard hyperparameterwaarden. Raadpleeg de SageMaker Studio-console voor de meest recente informatie, omdat deze waarden onderhevig kunnen zijn aan verandering.
- int8_kwantisering - Indien
True
, het model wordt geladen met 8-bits precisie voor training. Standaard voor Meta Llama 3.2 1B en Meta Llama 3.2 3B isFalse
. - enable_fsdp - Indien
True
, training gebruikt FSDP. Standaard voor Meta Llama 3.2 1B en Meta Llama 3.2 3B isTrue
. - tijdperk – Het aantal passages dat het algoritme voor fijnafstemming door de trainingsgegevensset voert. Moet een geheel getal groter dan 1 zijn. De standaardwaarde is 5.
- leertempo – De snelheid waarmee de modelgewichten worden bijgewerkt na het doorlopen van elke batch trainingsvoorbeelden. Moet een positieve float zijn die groter is dan 0. Standaard is dit 0.0001.
- lora_r – LoRA R-dimensie. Moet een positief geheel getal zijn. Standaard is 8.
- lora_alpha – LoRA Alpha. Moet een positief geheel getal zijn. Standaard is 32.
- doel_modules – Doelmodules voor LoRA-fine-tuning. U kunt een subset van
[‘q_proj’,’v_proj’,’k_proj’,’o_proj’,’gate_proj’,’up_proj’,’down_proj’]
modules als een string gescheiden door een komma zonder spaties. Standaard isq_proj,v_proj
. - lora_dropout – LoRA dropout. Moet een positieve float zijn tussen 0-1. Standaard is 0.05.
- instructie_afgestemd – Of het model instructie-getraind moet worden of niet. Hooguit één van
instruction_tuned
enchat_dataset
kan zijnTrue
. Moet zijnTrue
orFalse
. Standaard isFalse
. - chat_gegevensset - Indien
True
, dataset wordt verondersteld in chatformaat te zijn. Hooguit één vaninstruction_tuned
enchat_dataset
kan zijnTrue
. Standaard isFalse
. - add_input_output_demarcation_key – Voor een instructie-afgestemde dataset, als dit is
True
, een afbakeningssleutel ("### Response:n"
) wordt toegevoegd tussen de prompt en de voltooiing vóór de training. Standaard isTrue
. - per_device_train_batch_size – De batchgrootte per GPU-kern/CPU voor training. Standaard is 4.
- per_device_eval_batch_size – De batchgrootte per GPU-kern/CPU voor evaluatie. Standaard is 1.
- max_train_samples – Voor foutopsporingsdoeleinden of snellere training verkort u het aantal trainingsvoorbeelden tot deze waarde. Waarde -1 betekent dat alle trainingsvoorbeelden worden gebruikt. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1.
- max_val_monsters – Voor foutopsporingsdoeleinden of snellere training kunt u het aantal validatievoorbeelden afkappen tot deze waarde. Waarde -1 betekent dat alle validatiemonsters worden gebruikt. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1.
- zaad – Willekeurige seed die aan het begin van de training wordt ingesteld. Standaard is 10.
- max_invoer_lengte – Maximale totale invoersequentielengte na tokenisatie. Sequenties die langer zijn dan dit worden afgekapt. Als -1, wordt max_input_length ingesteld op het minimum van 1024 en de maximale modellengte die is gedefinieerd door de tokenizer. Als ingesteld op een positieve waarde,
max_input_length
is ingesteld op het minimum van de opgegeven waarde en demodel_max_length
gedefinieerd door de tokenizer. Moet een positief geheel getal of -1 zijn. De standaardwaarde is -1. - validatie_split_ratio – Als validatiekanaal is
None
moet de verhouding tussen de treinvalidatie en de treingegevens tussen 0 en 1 liggen. De standaardwaarde is 0.2. - train_data_split_seed – Als er geen validatiegegevens aanwezig zijn, wordt hiermee de willekeurige opsplitsing van de invoertrainingsgegevens naar trainings- en validatiegegevens die door het algoritme worden gebruikt, opgelost. Moet een geheel getal zijn. Standaard is 0.
- preprocessing_num_workers – Het aantal processen dat moet worden gebruikt voor voorbewerking. Als
None
, wordt het hoofdproces gebruikt voor voorbewerking. Standaard isNone
.
Instantietypen en compatibele hyperparameters
De geheugenbehoefte tijdens het fijnafstemmen kan variëren, afhankelijk van verschillende factoren:
- Model type – Het 1B-model heeft de kleinste GPU-geheugenvereiste en het 3B-model heeft een hogere geheugenvereiste
- Maximale invoerlengte – Een hogere waarde van de invoerlengte leidt tot het verwerken van meer tokens tegelijk en vereist als zodanig meer CUDA-geheugen
- Seriegrootte – Een grotere batchgrootte vereist een groter CUDA-geheugen en vereist daarom grotere instantietypen
- Int8-kwantisering – Als u Int8-kwantificering gebruikt, wordt het model in de lage-precisiemodus geladen en is er daarom minder CUDA-geheugen nodig
Om u op weg te helpen, bieden we een set combinaties van verschillende instancetypen, hyperparameters en modeltypen die succesvol kunnen worden verfijnd. U kunt een configuratie selecteren op basis van uw vereisten en beschikbaarheid van instancetypen. We verfijnen beide modellen op verschillende instellingen met drie tijdperken op een subset van de Dolly-dataset met samenvattingsvoorbeelden.
De resultaten voor het finetunen van de modellen worden getoond in de appendix aan het einde van dit bericht. Zoals we kunnen zien uit deze resultaten, verbetert finetuning de samenvatting in vergelijking met niet-finetuned modellen.
Meta Llama 3.2 1B fine-tuning met verschillende hyperparameters
De volgende tabel vat de verschillende hyperparameters voor het nauwkeurig afstemmen van Meta Llama 3.2 1B samen.
Instantietype | Maximale invoerlengte | Per apparaat trainingsbatchgrootte | Int8 kwantisering | Schakel FSDP in | Tijdsduur (minuten) |
ml.g5.2xgroot | 1024 | 4 | Juist | TRUE | 11.3 |
ml.g5.2xgroot | 1024 | 8 | Juist | TRUE | 11.12 |
ml.g5.2xgroot | 1024 | 4 | Juist | Juist | 14.55 |
ml.g5.2xgroot | 2048 | 4 | Juist | TRUE | 10.95 |
ml.g5.2xgroot | 1024 | 4 | TRUE | Juist | 17.82 |
ml.g5.2xgroot | 2048 | 4 | TRUE | Juist | 17.4 |
ml.g5.2xgroot | 1024 | 8 | TRUE | Juist | 16.97 |
ml.g5.4xgroot | 1024 | 8 | Juist | TRUE | 11.28 |
ml.g5.4xgroot | 1024 | 4 | Juist | TRUE | 11.48 |
ml.g5.4xgroot | 2048 | 4 | Juist | TRUE | 11.27 |
ml.g5.4xgroot | 1024 | 4 | Juist | Juist | 14.8 |
ml.g5.4xgroot | 1024 | 4 | TRUE | Juist | 17.38 |
ml.g5.4xgroot | 1024 | 8 | TRUE | Juist | 16.63 |
ml.g5.4xgroot | 2048 | 4 | TRUE | Juist | 16.8 |
ml.g5.8xgroot | 1024 | 4 | Juist | TRUE | 11.12 |
ml.g5.8xgroot | 2048 | 4 | Juist | TRUE | 10.87 |
ml.g5.8xgroot | 1024 | 8 | Juist | TRUE | 10.88 |
ml.g5.8xgroot | 1024 | 4 | Juist | Juist | 14.47 |
ml.g5.8xgroot | 1024 | 4 | TRUE | Juist | 17.82 |
ml.g5.8xgroot | 1024 | 8 | TRUE | Juist | 17.13 |
ml.g5.8xgroot | 2048 | 4 | TRUE | Juist | 17.13 |
ml.g5.12xgroot | 2048 | 4 | Juist | Juist | 14.72 |
ml.g5.12xgroot | 1024 | 4 | Juist | TRUE | 10.45 |
ml.g5.12xgroot | 1024 | 8 | TRUE | Juist | 17.23 |
ml.g5.12xgroot | 1024 | 8 | Juist | Juist | 14.03 |
ml.g5.12xgroot | 1024 | 4 | Juist | Juist | 14.22 |
ml.g5.12xgroot | 1024 | 4 | TRUE | Juist | 18.07 |
ml.g5.12xgroot | 2048 | 4 | TRUE | Juist | 18.15 |
ml.g5.12xgroot | 2048 | 4 | Juist | TRUE | 8.45 |
ml.g5.12xgroot | 1024 | 8 | Juist | TRUE | 8.87 |
ml.g4dn.12xgroot | 1024 | 8 | Juist | TRUE | 21.15 |
ml.g4dn.12xgroot | 1024 | 4 | TRUE | Juist | 35.12 |
ml.g4dn.12xgroot | 1024 | 4 | Juist | TRUE | 22.42 |
ml.g4dn.12xgroot | 1024 | 4 | Juist | Juist | 34.62 |
ml.g4dn.12xgroot | 2048 | 4 | Juist | TRUE | 23.25 |
Meta Llama 3.2 3B fine-tuning met verschillende hyperparameters
De volgende tabel vat de verschillende hyperparameters voor het nauwkeurig afstemmen van Meta Llama 3.2 3B samen.
Instantietype | Maximale invoerlengte | Per apparaat trainingsbatchgrootte | Int8 kwantisering | Schakel FSDP in | Tijdsduur (minuten) |
ml.g5.12xgroot | 1024 | 8 | TRUE | Juist | 29.18 |
ml.g5.12xgroot | 2048 | 4 | TRUE | Juist | 29.8 |
ml.g5.12xgroot | 1024 | 4 | Juist | Juist | 26.2 |
ml.g5.12xgroot | 1024 | 8 | Juist | TRUE | 12.88 |
ml.g5.12xgroot | 2048 | 4 | Juist | TRUE | 11.8 |
ml.g5.12xgroot | 1024 | 4 | Juist | TRUE | 14.98 |
ml.g5.12xgroot | 1024 | 4 | TRUE | Juist | 30.05 |
ml.g5.12xgroot | 1024 | 4 | TRUE | Juist | 29.87 |
ml.g5.24xgroot | 1024 | 4 | Juist | Juist | 25.97 |
ml.g5.24xgroot | 1024 | 4 | Juist | TRUE | 14.65 |
ml.g5.24xgroot | 1024 | 4 | TRUE | Juist | 29.32 |
ml.g5.24xgroot | 2048 | 4 | TRUE | Juist | 29.77 |
ml.g5.24xgroot | 1024 | 8 | TRUE | Juist | 28.78 |
ml.g5.24xgroot | 2048 | 4 | Juist | TRUE | 11.62 |
ml.g5.24xgroot | 1024 | 8 | Juist | TRUE | 12.38 |
ml.g5.48xgroot | 1024 | 8 | Juist | TRUE | 14.25 |
ml.g5.48xgroot | 1024 | 4 | Juist | Juist | 26.2 |
ml.g5.48xgroot | 2048 | 4 | Juist | TRUE | 13.32 |
ml.g5.48xgroot | 1024 | 4 | Juist | TRUE | 16.73 |
ml.g5.48xgroot | 1024 | 4 | TRUE | Juist | 30.3 |
ml.g5.48xgroot | 2048 | 4 | Juist | Juist | 28.7 |
ml.g5.48xgroot | 1024 | 8 | Juist | Juist | 25.6 |
ml.g5.48xgroot | 1024 | 8 | TRUE | Juist | 29.33 |
ml.g5.48xgroot | 2048 | 4 | TRUE | Juist | 30.63 |
Aanbevelingen over instantietypen en hyperparameters
Houd bij het verfijnen van de nauwkeurigheid van het model rekening met het volgende:
- Grotere modellen zoals 3B bieden betere prestaties dan 1B
- Prestaties zonder Int8-kwantisering zijn beter dan prestaties met Int8-kwantisering
Houd rekening met de volgende trainingstijd en CUDA-geheugenvereisten:
- omgeving
int8_quantization=True
vermindert de geheugenvereiste. - De combinatie van
per_device_train_batch_size
,int8_quantization
enenable_fsdp
instellingen beïnvloeden de trainingstijden. Bij gebruik van een grotere batchgrootte met FSDP ingeschakeld, zijn de trainingstijden sneller vergeleken met het gebruik van een grotere batchgrootte zonder FSDP. - Afnemende
per_device_train_batch_size
enmax_input_length
vermindert de geheugenbehoefte en kan daarom op kleinere instanties worden uitgevoerd. Het instellen van zeer lage waarden kan echter de trainingstijd verlengen. - Als u Int8-kwantisering niet gebruikt (
int8_quantization=False
), gebruik FSDP (enable_fsdp=True
) voor snellere en efficiëntere training.
Houd bij het kiezen van het exemplaartype rekening met het volgende:
- Op het moment dat ik dit bericht schreef, boden de G5-instances de meest efficiënte training van de ondersteunde instancetypen. Omdat AWS echter regelmatig nieuwe instancetypen bijwerkt en introduceert, raden we u aan om het aanbevolen instancetype voor Meta Llama 3.2 fine-tuning te valideren in de SageMaker-documentatie of SageMaker-console voordat u verdergaat.
- De trainingstijd hangt grotendeels af van de hoeveelheid GPU's en het beschikbare CUDA-geheugen. Daarom is training op instanties met hetzelfde aantal GPU's (bijvoorbeeld ml.g5.2xlarge en ml.g5.4xlarge) ongeveer hetzelfde. Daarom kunt u de meer kosteneffectieve instantie gebruiken voor training (ml.g5.2xlarge).
Voor meer informatie over de kosten van training per exemplaar, raadpleegt u Amazon EC2 G5-instanties.
Als uw dataset in instructie-afstemmingsformaat is, waarbij elk monster bestaat uit een instructie (invoer) en de gewenste modelrespons (voltooiing), en deze invoer- en voltooiingssequenties kort zijn (bijvoorbeeld 50-100 woorden), kunt u een hoge waarde gebruiken voor max_input_length
kan leiden tot slechte prestaties. Dit komt doordat het model moeite kan hebben om zich te concentreren op de relevante informatie bij het omgaan met een groot aantal padding tokens, en het kan ook leiden tot inefficiënt gebruik van computationele bronnen. De standaardwaarde van -1 komt overeen met een max_input_length
van 1024 voor Meta Llama-modellen. Wij raden aan om max_input_length
naar een kleinere waarde (bijvoorbeeld 200–400) bij het werken met datasets met kortere invoer- en voltooiingsreeksen om deze problemen te beperken en mogelijk de prestaties en efficiëntie van het model te verbeteren.
Ten slotte kan het zijn dat de G5-instanties vanwege de grote vraag naar deze instanties niet beschikbaar zijn in uw AWS-regio, met de foutmelding: “CapacityError: Unable to provision requested ML compute capacity. Please retry using a different ML instance type.”
Als u deze fout ervaart, probeert u de trainingstaak opnieuw of probeert u een andere regio.
Problemen bij het finetunen van grote modellen
In deze sectie bespreken we twee problemen bij het verfijnen van zeer grote modellen.
Schakel uitvoercompressie uit
Standaard is de uitvoer van een trainingstaak een getraind model dat wordt gecomprimeerd in een .tar.gz-formaat voordat het wordt geüpload naar Amazon S3. Voor grote modellen zoals het 70B-model kan deze compressiestap echter tijdrovend zijn en meer dan 4 uur duren. Om deze vertraging te beperken, wordt aanbevolen om de disable_output_compression
functie die wordt ondersteund door de SageMaker-trainingsomgeving. Wanneer disable_output_compression
is ingesteld op True
, wordt het model geüpload zonder enige compressie, wat de tijd die nodig is voor het uploaden van grote modelartefacten naar Amazon S3 aanzienlijk kan verkorten. Het ongecomprimeerde model kan vervolgens direct worden gebruikt voor implementatie of verdere verwerking. De volgende code laat zien hoe u deze parameter doorgeeft aan de SageMaker JumpStart-schatter:
Time-outprobleem met SageMaker Studio-kernel
De SageMaker Studio-kernel wordt alleen gebruikt om de trainingstaak te starten en de status ervan heeft geen invloed op het lopende trainingsproces. Nadat de trainingstaak is gestart, blijven de rekenbronnen die aan de taak zijn toegewezen het trainingsproces uitvoeren, ongeacht of de SageMaker Studio-kernel actief blijft of een time-out krijgt. Als de kernel een time-out krijgt tijdens het langdurige trainingsproces, kunt u het eindpunt nog steeds implementeren nadat de training is voltooid met behulp van de naam van de trainingstaak met de volgende code:
Om de naam van de trainingstaak te vinden, navigeert u naar de SageMaker-console en onder Opleiding in het navigatievenster, kies Training banen. Identificeer de naam van de trainingstaak en vervang deze in de voorgaande code.
Opruimen
Om onnodige kosten te voorkomen, is het raadzaam om de geïmplementeerde resources op te schonen wanneer u ze niet meer gebruikt. U kunt het geïmplementeerde model verwijderen met de volgende code:
Conclusie
Naarmate generatieve AI-modellen zich blijven ontwikkelen, hangt hun effectiviteit af van het vermogen om zich aan te passen en te specialiseren voor domeinspecifieke toepassingen. De Llama 3.2-serie van Meta, met zijn innovatieve multimodale functies en flexibele implementatieopties, biedt een krachtige basis voor het bouwen van op maat gemaakte AI-oplossingen. Door deze modellen te verfijnen met SageMaker JumpStart, kunnen organisaties gegeneraliseerde mogelijkheden omzetten in zeer gespecialiseerde tools, de precisie verbeteren en zinvolle resultaten leveren voor complexe, echte problemen. Of u nu documentanalyse wilt verbeteren, visuele interpretatie wilt automatiseren of domeinspecifieke inhoud wilt genereren, Meta Llama 3.2-modellen, afgestemd op uw behoeften, kunnen de kloof tussen brede AI-functionaliteiten en gerichte expertise overbruggen en impactvolle resultaten in uw vakgebied opleveren.
In dit bericht hebben we het gehad over het finetunen van Meta Llama 3.2-tekstgeneratiemodellen met behulp van SageMaker JumpStart. We hebben laten zien dat u de SageMaker JumpStart-console in SageMaker Studio of de SageMaker Python SDK kunt gebruiken om deze modellen te finetunen en te implementeren. We hebben ook de finetuningtechniek, instancetypen en ondersteunde hyperparameters besproken. Daarnaast hebben we aanbevelingen gedaan voor geoptimaliseerde training op basis van verschillende tests die we hebben uitgevoerd.
Zoals blijkt uit de resultaten van het verfijnen van de modellen over twee datasets, verbetert verfijnen de samenvatting vergeleken met modellen die niet zijn verfijnd.
Als volgende stap kunt u proberen deze modellen op uw eigen dataset te verfijnen met behulp van de code in de GitHub-repository om de resultaten voor uw gebruiksscenario's te testen en te benchmarken.
Over de auteurs
Pavan Kumar Rao Navule is Solutions Architect bij Amazon Web Services, waar hij samenwerkt met ISV's in India om hen te helpen innoveren op het AWS-platform. Hij is gespecialiseerd in het ontwerpen van AI/ML en generatieve AI-diensten bij AWS. Pavan is een gepubliceerde auteur van het boek 'Getting Started with V Programming'. In zijn vrije tijd luistert Pavan graag naar de grote magische stemmen van Sia en Rihanna.
Jin Tan Ruan is een Prototyping Developer bij AWS, onderdeel van het AWSI Strategic Prototyping and Customer Engineering (PACE) team, waar hij zich richt op NLP en generatieve AI. Met negen AWS-certificeringen en een stevige achtergrond in softwareontwikkeling gebruikt Jin zijn expertise om strategische klanten van AWS te helpen hun AI/ML- en generatieve AI-projecten tot leven te brengen. Hij heeft een masterdiploma in Machine Learning en Software Engineering van Syracuse University. Buiten zijn werk is Jin een fervent gamer en fan van horrorfilms. Je vindt Jin op LinkedIn om meer te leren!
Bijlage
In deze sectie presenteren we de resultaten voor het finetunen van de Meta Llama 3.2 1B en 3B tekstgeneratiemodellen op verschillende datasets. Deze sectie behandelt ook de datasetopmaak voor domeinaanpassing en instructiefinetuningtechnieken.
Resultaten voor het verfijnen van het Meta Llama 3.2 1B-tekstgeneratiemodel op de Dolly-dataset
Ingangen | Grond waarheid | Reactie van niet-gefinetuned model | Reactie van verfijnd model |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
1. Clubs uit alle lagen van de voetbalpiramide kwamen in aanmerking om deel te nemen aan de Joegoslavische beker. 2. Daarnaast werden amateurteams, samengesteld door talrijke ondernemingen en industriële fabrieken, en ook individuele garnizoenen van het Joegoslavische Volksleger, aangemoedigd om deel te nemen. Dit betekende dat aan elke bekereditie duizenden teams aan de voorrondes konden deelnemen. 3. Vóór de eerste ronde, waarin ze aan topteams zouden worden gekoppeld, zouden deze teams in een aantal kwalificatieronden strijden. |
De Joegoslavische beker was een toernooi waaraan clubs uit alle lagen van de voetbalpiramide mochten deelnemen. Daarnaast werden amateurteams die waren samengesteld door individuele garnizoenen van het Joegoslavische Volksleger en verschillende fabrieken en industriële installaties ook aangemoedigd om deel te nemen, wat betekende dat elke bekereditie enkele duizenden teams in de voorrondes kon hebben. Deze teams zouden door een aantal kwalificatierondes spelen voordat ze de eerste ronde bereikten, waarin ze zouden worden gekoppeld aan teams uit de hoogste klasse. ### Invoer: |
1. De Joegoslavische beker was een toernooi waaraan clubs uit alle lagen van de voetbalpiramide mochten deelnemen. Daarnaast werden amateurteams die waren samengesteld door individuele garnizoenen van het Joegoslavische Volksleger en verschillende fabrieken en industriële installaties ook aangemoedigd om deel te nemen, wat betekende dat elke bekereditie enkele duizenden teams in de voorrondes kon hebben. Deze teams zouden door een aantal kwalificatierondes spelen voordat ze de eerste ronde bereikten, waarin ze zouden worden gekoppeld aan teams uit de hoogste klasse. |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: De volgende dag, op 26 april 1777, brandden en plunderden de Britten, onder leiding van generaal-majoor William Tryon, Danbury, maar het aantal slachtoffers bleef beperkt dankzij Ludingtons waarschuwing. Het centrale motto op het zegel van de stad Danbury is Restituimus (Latijn voor "Wij hebben hersteld"), een verwijzing naar de verwoesting die werd veroorzaakt door de troepen van het loyalistische leger. De Amerikaanse generaal David Wooster raakte dodelijk gewond in de Slag bij Ridgefield door de Britse troepen die Danbury hadden aangevallen, maar aan het begin van de slag slaagden de Amerikanen erin de Britse troepen naar Long Island Sound te drijven. Wooster ligt begraven op Danbury's Wooster Cemetery; de particuliere Wooster School in Danbury werd ook naar hem vernoemd. ### Antwoord: |
Danbury, Connecticut diende als een belangrijk militair depot voor het Continentale Leger tijdens de Onafhankelijkheidsoorlog. Op 26 april 1777 viel het Britse leger de stad aan, brandde deze af en plunderde deze, maar de Amerikaanse troepen konden de Britse troepen terugdrijven naar de Long Island Sound. | Danbury was een belangrijk militair bevoorradingsdepot voor het Continentale Leger. Sybil Ludington, de 16-jarige dochter van de Amerikaanse kolonel Henry Ludington, zou in de vroege uurtjes van de nacht van 40 april 26 een rit van 1777 mijl hebben gemaakt om de mensen van Danbury en de troepen van haar vader in Putnam County, New York, te waarschuwen voor de nadering van Britse soldaten, en hen te helpen zich te verzamelen ter verdediging; deze verslagen, afkomstig van de familie Ludington, | Tijdens de Onafhankelijkheidsoorlog was Danbury een belangrijk militair bevoorradingsdepot voor het Continentale Leger. Sybil Ludington, de 16-jarige dochter van de Amerikaanse kolonel Henry Ludington, zou in de vroege uurtjes van de nacht van 40 april 26 een rit van 1777 mijl hebben gemaakt om de mensen van Danbury en de troepen van haar vader in Putnam County, New York, te waarschuwen voor de nadering van Britse soldaten, en hen te helpen zich te verzamelen ter verdediging; deze verslagen, afkomstig van |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: De songtekst gaat over gevoelens van verraad door een goede vriend. Bij de release van het album uitten critici gemengde meningen over "Bad Blood", waarbij sommigen Swifts uitdagende houding complimenteerden en het een hoogtepunt van het album noemden, terwijl anderen kritiek hadden op de productie en songteksten. De geremixte single werd geprezen om de herwerkte instrumentatie en Lamars coupletten, die anderen niet op hun plaats vonden in een popnummer. Media speculeerden dat de Amerikaanse zangeres Katy Perry het onderwerp is van het nummer. De remix kreeg een Grammy-nominatie voor Best Pop Duo/Group Performance. "Bad Blood" werd ondersteund door een high-budget muziekvideo geregisseerd door Joseph Kahn en geproduceerd door Swift. Het bevatte een ensemble cast bestaande uit vele zangers, actrices en modemodellen, die veel media-aandacht kreeg. Critici prezen de video voor zijn filmische en futuristische beelden geïnspireerd door neo-noir stijlen. Het won een Grammy Award voor Beste Muziekvideo en twee MTV Video Music Awards voor de Video van het Jaar en Beste Samenwerking. Commercieel bereikte "Bad Blood" nummer één in Australië, Canada, Nieuw-Zeeland en Schotland, evenals de Verenigde Staten, waar het bovenaan de Billboard Hot 100, Adult Top 40 en Mainstream Top 40 hitlijsten stond. Het is gecertificeerd drie keer platina in Australië en Canada, en 6√ó platina in de VS. ### Antwoord: |
* positief over Taylor Swifts uitdagende houding * negatief over de productie en de tekst van het lied * positief over de instrumentatie en coupletten * positief over de visuele aspecten van de bijbehorende videoclip * positief in termen van het bovenaan staan van meerdere hitlijsten |
1. “Bad Blood” is een nummer van de Amerikaanse singer-songwriter Taylor Swift, afkomstig van haar vijfde studioalbum 1989 (2014). Swift schreef het nummer met haar producers Max Martin en Shellback. De albumtrack is een popnummer met stampende drums. Een hiphopremix van “Bad Blood”, met de Amerikaanse rapper Kendrick Lamar en aanvullende productie door Ilya, werd uitgebracht als vierde single uit 1989 op 17 mei 2015 door Big Machine en Republic | 1. Het nummer is een popnummer met stampende drums. 2. Een hiphopremix van "Bad Blood", met de Amerikaanse rapper Kendrick Lamar en aanvullende productie door Ilya, werd op 1989 mei 17 uitgebracht als vierde single uit 2015 door Big Machine en Republic Records. 3. De tekst gaat over gevoelens van verraad door een goede vriend. 4. Bij de release van het album uitten critici gemengde meningen over "Bad Blood", waarbij sommigen Swift's |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
Apollo 11 was het hoogtepunt van een meerjarige ruimterace die werd aangewakkerd door de Koude Oorlog, wat leidde tot de landing van de eerste mensen op de maan door de Verenigde Staten. De missie had 3 bemanningsleden, vereiste meerdere jaren van voorbereiding en bestond uit 8 belangrijke fasen: lancering, vlucht, baan om de maan, afdaling op de maan, landing, operaties op het maanoppervlak, beklimming op de maan, terugkeer, plons en quarantaine. De Apollo 11-missie is nog steeds de beroemdste missie ooit in het NASA-programma. De 3 astronauten waren Michael Collins, Buzz Aldrin en Neil Armstrong. | De Apollo 11-missie was een historische gebeurtenis die de loop van de menselijke geschiedenis veranderde. Het was de eerste keer dat mensen op de maan landden en het was de eerste keer dat mensen op de maan liepen. De missie was een succes en het was een grote stap voorwaarts in de verkenning van de ruimte. De missie was ook een grote stap voorwaarts in de verkenning van de maan en het was een grote stap voorwaarts in de verkenning van de maan en het was een grote stap voorwaarts in de verkenning | De Apollo 11-missie was de eerste bemande missie om mensen op de maan te laten landen. De missie werd geleid door Neil Armstrong en Buzz Aldrin, die de Apollo Lunar Module Eagle op 20 juli 1969 om 20:17 UTC landden en Armstrong werd de eerste persoon die zes uur en 39 minuten later, op 21 juli om 02:56 UTC, voet zette op het oppervlak van de maan. Aldrin voegde zich 19 minuten later bij hem en ze brachten ongeveer twee en een |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: Apple werd op 1 april 1976 opgericht als Apple Computer Company door Steve Wozniak, Steve Jobs en Ronald Wayne om Wozniaks Apple I personal computer te ontwikkelen en te verkopen. Het werd in 1977 door Jobs en Wozniak opgericht als Apple Computer, Inc. De tweede computer van het bedrijf, de Apple II, werd een bestseller en een van de eerste massaal geproduceerde microcomputers. Apple ging in 1980 naar de beurs en was direct financieel succesvol. Het bedrijf ontwikkelde computers met innovatieve grafische gebruikersinterfaces, waaronder de originele Macintosh uit 1984, die dat jaar werd aangekondigd in een door critici geprezen advertentie. In 1985 zorgden de hoge kosten van de producten en de machtsstrijd tussen leidinggevenden voor problemen. Wozniak stapte in goed overleg uit Apple en ging andere ondernemingen nastreven, terwijl Jobs verbitterd ontslag nam en NeXT oprichtte, waarbij hij een aantal Apple-werknemers meenam. Naarmate de markt voor personal computers in de jaren negentig groeide en evolueerde, verloor Apple aanzienlijk marktaandeel aan het goedkopere duopolie van het Microsoft Windows-besturingssysteem op Intel-aangedreven pc-klonen (ook bekend als "Wintel"). In 1990, weken voor het faillissement, kocht het bedrijf NeXT om Apple's mislukte strategie voor besturingssystemen op te lossen en Jobs terug te lokken naar het bedrijf. In het daaropvolgende decennium leidde Jobs Apple terug naar winstgevendheid door een aantal tactieken, waaronder de introductie van de iMac, iPod, iPhone en iPad met lovende kritieken, de lancering van de "Think different"-campagne en andere gedenkwaardige reclamecampagnes, de opening van de Apple Store-winkelketen en de overname van talloze bedrijven om het productportfolio van het bedrijf uit te breiden. Toen Jobs in 1997 om gezondheidsredenen aftrad en twee maanden later overleed, werd hij als CEO opgevolgd door Tim Cook. Apple werd het eerste beursgenoteerde Amerikaanse bedrijf dat in augustus 1 meer dan $ 2018 biljoen waard werd, vervolgens $ 2 biljoen in augustus 2020 en $ 3 biljoen in januari 2022. In januari 2023 werd het gewaardeerd op ongeveer $ 2.2 biljoen. Het bedrijf krijgt kritiek op de arbeidspraktijken van zijn contractanten, zijn milieupraktijken en zijn bedrijfsethiek, waaronder anticoncurrentiepraktijken en materiaalinkoop. Niettemin heeft het bedrijf een grote aanhang en geniet het een hoge mate van merkloyaliteit. Het wordt gerangschikt als een van 's werelds meest waardevolle merken. ### Antwoord: |
1. Apple is een Amerikaans multinationaal technologiebedrijf met een omzet van ruim 394.3 miljard dollar in 2022. 2. Apple is de vierde grootste leverancier van personal computers op basis van verkoopaantallen en de op één na grootste fabrikant van mobiele telefoons. 3. Apple werd op 1 april 1976 opgericht door Steve Jobs, Steve Wozniak en Rold Wayne. 4. Steve Jobs leidde Apple naar winstgevendheid door een aantal tactieken, waaronder de introductie van de iMac, iPod, iPhone en iPad toen het bedrijf met verliezen kampte. 5. Apple was in augustus 1 het eerste beursgenoteerde Amerikaanse bedrijf dat een waarde van meer dan 2018 biljoen dollar had. |
1. Apple Inc. is een Amerikaans multinationaal technologiebedrijf met het hoofdkantoor in Cupertino, Californië. Apple is het grootste technologiebedrijf qua omzet, met een totaal van US$ 394.3 miljard in 2022. Vanaf maart 2023 is Apple het grootste bedrijf ter wereld qua marktkapitalisatie. Vanaf juni 2022 is Apple de vierde grootste leverancier van personal computers qua verkoop en de op één na grootste fabrikant van mobiele telefoons. Het is een van de Big Five Amerikaanse informatietechnologiebedrijven, naast Alphabet (bekend van Google | 1. Apple Inc. is een Amerikaans multinationaal technologiebedrijf met hoofdkantoor in Cupertino, Californië. 2. Apple is het grootste technologiebedrijf qua omzet, met een totale omzet van 394.3 miljard dollar in 2022. 3. Vanaf maart 2023 is Apple het grootste bedrijf ter wereld qua marktkapitalisatie. 4. Sinds juni 2022 is Apple de vierde grootste leverancier van personal computers op basis van verkoopaantallen en de op één na grootste fabrikant van mobiele telefoons. 5. Het is een van de vijf grootste Amerikaanse informatiebronnen |
Resultaten voor het verfijnen van het Meta Llama 3.2 1B-tekstgeneratiemodel op de Dialogsum-dataset
Ingangen | Grond waarheid | Reactie van niet-gefinetuned model | Reactie van verfijnd model |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Person1# heeft de feestoutfit vernield, dus #Person1# heeft een vervanging nodig. Amy grapt dat ze blut is. Ze gaan dan de outfit bekijken. | #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Person1#: Ik weet niet zeker of ik het leuk vind. Het is een beetje te veel. #Person2#: Ik vind het geweldig. Het is een beetje van alles. #Persoon1#: |
#Persoon1# en Amy hebben het over het nummer van Amy's outfit. #Persoon1# is dol op dat soort dingen en Amy is blut. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Persoon1# klaagt over de stijl van de CEO. #Persoon2# zegt dat de baas al een kandidaat-CEO is. #Persoon2# beantwoordt de vraag van #Persoon1# over de functie van de CEO in een bedrijf. | #Person1#: Ik denk dat je gelijk hebt. Ik bedoel, ik kan niet geloven dat mijn baas de CEO is. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de CEO, maar hij is niet de CEO. Ik bedoel, hij is de | #Persoon1# vindt dat de baas van #Persoon1# zich de laatste tijd bazig gedraagt. #Persoon2# vertelt #Persoon1# dat de baas van #Persoon2# nu de CEO is. #Persoon1# denkt dat het een grote schoen is om te vullen. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Persoon1# wil een huis met drie slaapkamers voor minder dan 300,000 RIB. #Persoon2# stelt voor om een huis met twee slaapkamers te kopen voor een gezin met één kind voor ongeveer 250 RIB. | #Persoon1#: Waarvoor dient een woning in het zuidelijke berggebied? #Persoon2#: Dat hangt af van het type huis dat u zoekt. #Persoon1#: Wij zijn op zoek naar een huis met drie slaapkamers. #Persoon2#: Wat is uw algemene prijsbereik? #Persoon1#: Minder dan 300 RIB, denken we. #Person2#: Umm, ik denk dat ik moeilijk iets in die categorie in dit gebied zou kunnen vinden. Weet je, de omgeving in het zuidelijke bergdistrict is het mooist. #Persoon1#: Wat dacht je van een huis met twee slaapkamers? #Persoon2#: Een huis met twee slaapkamers kost in dit gebied doorgaans ongeveer 250 RIB. #Persoon1#: Ik snap het. #Person2#: Ik raad je aan om een huis met twee slaapkamers te kopen. Het is erg geschikt voor een stel, en sommige huizen met twee slaapkamers zijn groot genoeg voor een gezin met één kind. #Persoon1#: Oké, ik zal er rekening mee houden. |
#Persoon1# en #Persoon2# zijn op zoek naar een huis met drie slaapkamers. #Persoon2# raadt #Persoon1# aan om een huis met twee slaapkamers te kopen. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Person1# interviewt Mr. Sharp. Mr. Sharp vertelt #Person1# dat hij gelukkig is en dat hij geen vergelijkbare verhalen schrijft. Zijn verhalen zijn uit het leven gegrepen. | #Person1#: Ik ben blij dat je blij bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. Ik ben blij dat je niet Brian Sharpe bent. | Meneer Sharp is blij met zijn leven. Hij vertelt #Person1# dat hij geen vergelijkbaar schrijfpatroon volgt. Hij denkt voor zichzelf en al zijn verhalen zijn uit het leven gegrepen. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Persoon2# vertelt #Persoon1# wat de weersvoorspelling voor vandaag is. | #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon2#: Het zou me niet verbazen als het morgen regent. #Person1#: Ik ook niet. Het lijkt al dagen op regen. #Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon2#: Het zou me niet verbazen als het morgen regent. #Person1#: Ik ook niet. Het lijkt al dagen op regen. #Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon2#: Het zou me niet verbazen als het morgen regent. #Person1#: Ik ook niet. Het lijkt al dagen op regen. #Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon2#: Het zou me niet verbazen als het morgen regent. #Person1#: Ik ook niet. Het lijkt al dagen op regen. #Persoon2#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon1#: Het lijkt er al een paar dagen op dat het gaat regenen. #Persoon2#: Het zou me niet verbazen als het morgen regent. #Person1#: Ik ook niet. Het lijkt al dagen op regen. #Persoon2#: |
#Persoon1# en #Persoon2# praten over de weersvoorspelling. |
Resultaten voor het verfijnen van het Meta Llama 3.2 3B-tekstgeneratiemodel op de Dolly-dataset
Ingangen | Grond waarheid | Reactie van niet-gefinetuned model | Reactie van verfijnd model |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde stad in Baden-Württemberg. Heidelberg is onderdeel van de dichtbevolkte metropoolregio Rijn-Neckar. De Universiteit van Heidelberg, opgericht in 1386, is de oudste universiteit van Duitsland en een van de meest gerenommeerde universiteiten van Europa. Heidelberg is een wetenschappelijk knooppunt in Duitsland en de thuisbasis van verschillende internationaal gerenommeerde onderzoeksfaciliteiten grenzend aan de universiteit, waaronder het European Molecular Biology Laboratory en vier Max Planck Instituten. De stad is ook een knooppunt voor de kunsten, met name literatuur, door de eeuwen heen, en het werd aangewezen als "Stad van de Literatuur" door het UNESCO Creative Cities Network. Heidelberg was de regeringszetel van het voormalige keurvorstendom de Palts en is een populaire toeristische bestemming vanwege het romantische stadsbeeld, met onder meer het kasteel van Heidelberg, het Filosofenpad en de barokke oude binnenstad. ### Antwoord: |
Heidelberg heeft de oudste universiteit van Duitsland. De stad is een wetenschappelijk knooppunt en de thuisbasis van verschillende internationaal gerenommeerde onderzoeksfaciliteiten. Het werd door het UNESCO Creative Cities Network aangewezen als "City of Literature". | Heidelberg is een stad in de Duitse deelstaat Baden-Württemberg, gelegen aan de rivier de Neckar in het zuidwesten van Duitsland. Volgens de volkstelling van 2016 bedroeg de bevolking 159,914, waarvan ongeveer een kwart bestond uit studenten. Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde grootste stad in Baden-Württemberg. Heidelberg maakt deel uit van de dichtbevolkte metropoolregio Rijn-Neckar. |
Heidelberg is een stad in de Duitse deelstaat Baden-Württemberg, gelegen aan de rivier de Neckar in het zuidwesten van Duitsland. Volgens de volkstelling van 2016 bedroeg de bevolking 159,914, waarvan ongeveer een kwart bestond uit studenten. Heidelberg ligt ongeveer 78 km (48 mijl) ten zuiden van Frankfurt en is de vijfde stad in Baden-Württemberg. Heidelberg is onderdeel van de dichtbevolkte metropoolregio Rijn-Neckar. |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
De Indianapolis 500, formeel bekend als de Indianapolis 500-Mile Race en algemeen bekend als de Indy 500, is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekendstaat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak in de herfst van 1909 met baksteen werd geplaveid. Eén meter baksteen is nog zichtbaar bij de start/finishlijn. Het evenement, aangekondigd als The Greatest Spectacle in Racing, wordt beschouwd als onderdeel van de Triple Crown of Motorsport, samen met de 24 uur van Le Mans en de Grand Prix van Monaco, waarmee het doorgaans een datum deelt. De inaugurele race werd gehouden in 1911 en werd gewonnen door Ray Harroun. Het evenement vierde zijn 100-jarig jubileum in 2011 en de 100e editie werd gehouden in 2016. Het evenement werd twee keer stilgelegd, van 1917 tot 1918 vanwege de Eerste Wereldoorlog en van 1942 tot 1945 vanwege de Tweede Wereldoorlog. In twee verschillende periodes maakte de race deel uit van de FIA World Championships; tussen 1925 en 1928 het World Manufacturers' Championship en tussen 1950 en 1960 het World Drivers' Championship. Marcus Ericsson is de huidige kampioen. De meest succesvolle coureurs zijn AJ Foyt, Al Unser Sr., Rick Mears en H√©lio Castroneves, die de race elk vier keer hebben gewonnen. De actieve coureur met de meeste overwinningen is H√©lio Castroneves. Rick Mears heeft het record voor de meeste pole positions in zijn carrière met zes. De meest succesvolle auto-eigenaar is Roger Penske, eigenaar van de Indianapolis Motor Speedway en Team Penske, dat in totaal 18 overwinningen en 18 poles heeft. Penske heeft ook vijf overwinningen behaald bij de IndyCar Grand Prix, gehouden op het gecombineerde stratencircuit. Het evenement is doordrenkt van traditie, met ceremonies voor de race, vieringen na de race en raceprocedures. De meest opmerkelijke en populairste tradities zijn het veld van 33 auto's die drie naast elkaar staan opgesteld voor de start, het jaarlijkse zingen van het refrein van "Back Home Again in Indiana" en de fles melk van de overwinningsbaan. Ook uniek is dat de coureur voor de kwalificatie vier, in plaats van één, getimede ronden moet voltooien. De kwalificatie heeft een apart weekend. Het officiële aantal bezoekers wordt niet bekendgemaakt door het management van Speedway, maar de permanente zitcapaciteit is meer dan 250,000 en bezoekers van het binnenveld verhogen het aantal bezoekers op de racedag tot ongeveer 300,000. |
De Indianapolis 500 is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekend staat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak is geplaveid in | De Indianapolis 500 is een jaarlijkse autorace die wordt gehouden op Indianapolis Motor Speedway (IMS) in Speedway, Indiana, Verenigde Staten, een enclave buitenwijk van Indianapolis. Het evenement wordt traditioneel gehouden tijdens het Memorial Day weekend, meestal het laatste weekend van mei. Het wordt betwist als onderdeel van de IndyCar Series, het hoogste niveau van Amerikaanse open-wheel autoraces, een formule die in de volksmond bekend staat als "Indy car racing". De baan zelf heeft de bijnaam "Brickyard", omdat het raceoppervlak is geplaveid in |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
Het herbergt een mix van residentiële en commerciële locaties van burgers uit de hogere klasse, zoals politici, diplomaten, expats en kunstenaars. Het heette vroeger Jordan Street voor de Iraanse revolutie. Het is een van de beroemdste straten van Teheran, met zelfs om 2:00 uur 's nachts in de zomer regelmatig files. | Nelson Mandela Boulevard is een straat in Teheran, Iran. Het is een van de beroemdste straten in Noord-Teheran na Valiasr Street, de langste conventionele straat in het Midden-Oosten, die een zuid-noord as overspant. Het staat ook bekend als een van de levendigste straten van Teheran, met zelfs om 2:00 uur 's nachts in de zomer regelmatig files. De straat is vernoemd naar de Zuid-Afrikaanse anti-apartheidsrevolutionair en voormalig president van Zuid-Afrika, Nelson Mandela. | 1. Nelson Mandela Boulevard is een straat in het noorden van Teheran, Iran. 2. Het is vernoemd naar de Amerikaanse presbyteriaanse missionaris Samuel M. Jordan. 3. De laatste jaren is de naam veranderd naar Nelson Mandela Boulevard. 4. Het is een van de beroemdste straten in Noord-Teheran. 5. Het staat ook bekend als een van de levendigste straten van Teheran. |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019. Wimbledon is een van de vier Grand Slam-tennistoernooien, de andere zijn de Australian Open, de French Open en de US Open. Wimbledon is het enige grote toernooi dat nog steeds op gras wordt gespeeld, het traditionele tennisveld. Het is ook het enige Grand Slam-toernooi dat een avondklok heeft, hoewel wedstrijden nu tot 11.00 uur onder de schijnwerpers kunnen doorgaan. Het toernooi vindt traditioneel plaats gedurende twee weken eind juni en begin juli, beginnend op de laatste maandag in juni en eindigend met de Ladies' and Gentlemen's Singles Finals, gepland voor de zaterdag en zondag aan het einde van de tweede week. Er worden elk jaar vijf grote evenementen gehouden, met daarnaast ook junior- en invitational-wedstrijden. In 2009 werd het Centre Court van Wimbledon voorzien van een uitschuifbaar dak om het verlies van speeltijd door regen te verminderen. Vanaf 1 was er een dak operationeel boven baan nr. 2019, toen een aantal andere verbeteringen werden doorgevoerd, waaronder het toevoegen van zachte stoelen, een tafel en 10 onafhankelijk bedienbare camera's per baan om de wedstrijden vast te leggen. Wimbledon-tradities omvatten een strikte, geheel witte dresscode voor deelnemers en koninklijke bescherming. Aardbeien met room worden traditioneel gegeten tijdens het toernooi. In tegenstelling tot andere toernooien is de reclame minimaal en bescheiden van officiële leveranciers zoals Slazenger en Rolex. De relatie met Slazenger is 's werelds langstlopende sportsponsoring, die sinds 1902 ballen voor het toernooi levert. Vanwege de COVID-19-pandemie werd Wimbledon 2020 geannuleerd, de eerste annulering van het toernooi sinds de Tweede Wereldoorlog. De verplaatste 134e editie werd gehouden van 28 juni 2021 tot 11 juli 2021, na de annulering van 2020. De 135e editie werd gespeeld tussen 27 juni 2022 en 10 juli 2022, en de reguliere speeltijd vond voor het eerst plaats op de middelste zondag. Het markeert de honderdste verjaardag van de inaugurele kampioenschappen die werden gehouden op het Centre Court. De ATP, ITF en WTA kenden geen rankingpunten toe voor het toernooi van 2022, vanwege controverse over het toernooi waarin spelers uit Rusland en Wit-Rusland werden uitgesloten. De Wimbledonkampioenschappen van 2023 zijn de 136e editie en vinden plaats van 3 tot en met 2023 juli 16. Het is het eerste evenement van koning Charles III sinds het overlijden van de voormalige beschermvrouwe, koningin Elizabeth II, op 2023 september 8. |
De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019. Het toernooi bestaat uit vijf enkelspelen voor mannen en vijf enkelspelen voor vrouwen. Het enkelspel voor mannen is het meest prestigieuze van de vijf enkelspelen voor mannen, en | De Wimbledon Championships, in de volksmond gewoon Wimbledon genoemd, is het oudste tennistoernooi ter wereld en wordt algemeen beschouwd als het meest prestigieuze. Het wordt sinds 1877 gehouden op de All England Club in Wimbledon, Londen, en wordt gespeeld op grasvelden in de buitenlucht, met uitschuifbare daken over de twee hoofdbanen sinds 2019. |
Hieronder vindt u een instructie die een taak beschrijft, gecombineerd met invoer die verdere context biedt. Schrijf een antwoord dat het verzoek op passende wijze voltooit. ### Instructie: ### Invoer: ### Antwoord: |
De vacht van een hond varieert afhankelijk van het ras. Meestal kan een hond een "dubbele" vacht of een "enkele" vacht hebben. "Dubbele" vachten zijn afkomstig van rassen die in koudere klimaten leven. Dit type vacht bestaat uit een grof dekhaar en een zacht donshaar. Honden met een "enkele" vacht hebben alleen de bovenvacht. | De vachten van huishonden zijn er in twee soorten: "dubbel" is bekend bij honden (en wolven) die afkomstig zijn uit koudere klimaten, bestaande uit een grof dekhaar en een zacht donshaar, of "enkel", met alleen de bovenvacht. Rassen kunnen af en toe een "bles", streep of "ster" van witte vacht op hun borst of onderkant hebben. Vroegtijdig grijs worden kan bij honden al vanaf één jaar voorkomen; dit wordt geassocieerd met impulsief gedrag | Er zijn twee soorten vachten bij honden: dubbele en enkele. Dubbele vachten bestaan uit een grof dekharen en een zacht donshaar. Enkele vachten hebben alleen een bovenvacht. |
Resultaten voor het verfijnen van het Meta Llama 3.2 3B-tekstgeneratiemodel op de Dialogsum-dataset
Ingangen | Grond waarheid | Reactie van niet-gefinetuned model | Reactie van verfijnd model |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Person1# en Farmington zijn ontevreden over de advertenties die Roger heeft gemaakt. Farmington zal met Roger praten. | Het gesprek tussen Person1 en Person2 draait om een reeks catalogusadvertenties die Person1 heeft gevonden. Person1 uit zijn zorgen over de kwaliteit van de advertenties, en suggereert dat ze mogelijk niet geschikt zijn voor gebruik. Person2 is het eens met Person1's zorgen en stelt voor dat ze met Roger praten, de persoon die verantwoordelijk is voor het maken van de advertenties. Person2 biedt aan om de advertenties te bekijken en 's ochtends met Roger te praten, en geeft aan dat ze het probleem zullen aanpakken. Het gesprek is gericht op het vinden van een oplossing voor het probleem met de catalogusadvertenties. | #Persoon1# vindt de catalogusadvertenties niet goed. Dhr. Farmington zal met Roger spreken. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Persoon2# komt naar #Persoon1# om te melden dat de dochter van #Persoon2# vermist is. #Persoon1# vraagt naar haar uiterlijk en verblijfplaats. | Het gesprek tussen Person1 en Person2 draait om een vermist kind. Person2 meldt dat hun dochter vermist is en Person1 biedt aan om te helpen. Person2 beschrijft het uiterlijk van het kind, inclusief haar blonde haar, blauwe ogen, gele jurk en rode sneakers. Person1 vraagt naar de laatste keer dat Person2 het kind heeft gezien en wanneer dat was. Person2 vermeldt dat ze het kind verderop in de straat hebben gezien, maar ze zijn niet zeker van haar huidige locatie. Person1 dringt aan op meer informatie en vraagt hoe lang het geleden is dat Person2 het kind voor het laatst heeft gezien. Person2 schat dat het 15 minuten geleden is. Het gesprek is een zoektocht naar informatie en een mogelijke aanwijzing om het vermiste kind te vinden. | #Persoon2# vertelt #Persoon1# dat de dochter van #Persoon2# vermist is. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
Ray en Joann hebben thuis niet veel te doen en besluiten om uit te gaan. Ze bespreken een aantal keuzes, waaronder een film kijken, winkelen en naar een bar gaan. Maar uiteindelijk besluit Ray om naar Joanns huis te gaan. Ze gaan samen eten en Mah Tiang spelen. | Ray en Joann bespraken wat ze op zaterdagavond zouden doen. Ze overwogen eerst om naar de film te gaan, maar besloten dat niet te doen vanwege de regen. Ze sloten ook winkelen uit omdat Joann bang was te veel geld uit te geven. Ray stelde voor om te gaan bowlen, maar Joanns geblesseerde pols maakte dat onmogelijk. Ze overwogen toen om naar een bar te gaan om karaoke te zingen, maar Ray kon niet drinken vanwege zijn medicatie. Joann stelde voor om naar Rays huis te komen, maar hij had geen auto. Ze besloten in plaats daarvan Mahjong te spelen en Joann vroeg of Ray had gegeten. Uiteindelijk besloten ze om een potje Mahjong te spelen voor geld, waarbij Joann hoopte te winnen. Het gesprek eindigde met Ray die grapte dat het hem niet kon schelen wat hij deed, zolang hij maar niet alleen was op zaterdagavond. | #Person1# en Ray zoeken iets om te doen. Ze proberen te beslissen over een film, een wandeling, winkelen, bowlen, karaoke en Mah Tiang. Uiteindelijk besluiten ze Mah Tiang te spelen. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
#Persoon2# beschrijft het weer in de zomer, herfst en winter in Beijing en #Persoon1# vertelt over het weer in Washington. |
Persoon1 en Persoon2 bespreken het weer in Beijing en Washington. Ze zijn het er allebei over eens dat de herfst een geweldig seizoen is in beide steden. Persoon1 vermeldt dat de zomerhitte voorbij is en de winterkou nog ver weg is, wat suggereert dat het weer in Beijing mild is in de herfst. Persoon2 vraagt naar het weer in Washington en Persoon1 antwoordt dat de herfst daar ook aangenaam is. Ze bespreken het weer in Washington, waarbij Persoon2 vraagt naar de kou in de winter en Persoon1 zegt dat het niet erg koud is, maar soms sneeuwt het. Persoon2 vraagt vervolgens naar de regen in de zomer en Persoon1 zegt dat het hard regent. Persoon2 vermeldt dat Beijing veel regen heeft in de zomer, maar niet in de herfst, waar Persoon1 het mee eens is. Persoon1 vermeldt dat Beijing droog is in de herfst en Persoon2 zegt dat veel mensen uit het zuiden het weer daar niet prettig vinden. Persoon1 vraagt of Persoon2 uit het zuiden komt en Persoon2 antwoordt dat ze uit het noorden komen en geboren zijn in Beijing. Persoon1 vraagt vervolgens of Beijing de geboorteplaats van Persoon2 is en Persoon2 bevestigt dat dit zo is. Let op: Het antwoord is een samenvatting van het gesprek, geen herformuleerde versie van de originele tekst. Het doel is om de belangrijkste punten en ideeën die tussen de twee mensen zijn besproken, vast te leggen. Hier is het antwoord in een meer formele toon: Het gesprek tussen Person1 en Person2 draait om het weer in Beijing en Washington. Ze waarderen allebei de schoonheid van de herfst in beide |
#Persoon1# en #Persoon2# praten over het weer in Beijing en Washington. #Persoon2# komt uit het noorden en is geboren in Beijing. |
Hieronder vindt u instructies voor een gesprek tussen twee personen. Schrijf een reactie die het gesprek op een passende manier samenvat. ### Instructie: ### Antwoord: |
De zwager van #Persoon2# nodigt #Persoon2# uit voor een klein samenzijn met #Persoon2#'s familieleden en vrienden. #Persoon1# is in de war over #Persoon2#'s familierelatie. | Person1 en Person2 bespreken een weekendbijeenkomst bij Person2's zwager. Het evenement is een mix van familie en vrienden, met een aantal neven, nichten, tantes, ooms en buren die aanwezig zijn. Person1 vraagt of Person2's oudoom Rick, die bekendstaat om zijn humor, aanwezig zal zijn. Person2 bevestigt dat Rick aanwezig zal zijn, samen met zijn stiefzoon en ex-vrouw, die Person2's zus is. Person1 lijkt verward over de familierelatie, en Person2 stemt ermee in om het later uit te leggen. Het gesprek is luchtig en informeel, met een focus op de aanstaande sociale bijeenkomst. | #Persoon2# zal een kleine bijeenkomst bijwonen bij de zwager van #Persoon2#. #Persoon1# vraagt #Persoon2# naar de mensen die er zullen zijn. |
Opmaak van gegevenssets
We bieden momenteel twee soorten fine-tuning aan: instructiefine-tuning en domeinadaptatiefine-tuning. U kunt overschakelen naar een van de trainingsmethoden door de parameter op te geven instruction_tuned
as True
or False
.
Domeinaanpassingsformaat
Het tekstgeneratiemodel kan worden verfijnd op elke domeinspecifieke dataset om domeinspecifieke kennis en taalpatronen op te nemen. Na het verfijnen op de domeinspecifieke dataset, wordt verwacht dat het model relevantere en nauwkeurigere tekst binnen dat domein genereert. Hoewel few-shot prompting het model ook kan leiden naar domeinspecifieke generatie, speelt het fine-tuningproces een cruciale rol bij het aanpassen van het begrip en de generatiemogelijkheden van het model aan het doeldomein. De combinatie van fine-tuning op domeingegevens en effectieve promptingtechnieken kan het model in staat stellen om verschillende NLP-taken binnen dat specifieke domein effectiever uit te voeren.
Voor invoer in het model gebruikt u een trainings- en optionele validatiedirectory. Elke directory bevat een CSV-, JSON- of TXT-bestand. Voor CSV- en JSON-bestanden worden de trein- of validatiegegevens gebruikt uit de kolom met de naam text
of de eerste kolom als er geen kolom is aangeroepen text
is gevonden. Het aantal bestanden dat wordt getraind en gevalideerd (indien aanwezig) moet respectievelijk gelijk zijn aan 1.
De uitvoer is een getraind model dat kan worden ingezet voor gevolgtrekking.
Het volgende is een voorbeeld van een TXT-bestand voor het verfijnen van het tekstgeneratiemodel. Het TXT-bestand is SEC-registratie van Amazon van 2021-2022:
Instructie fijnafstemming
Het tekstgeneratiemodel kan op elke tekstdata instructie-afgestemd worden, mits de data in het verwachte formaat is. Het instructie-afgestemde model kan verder worden ingezet voor inferentie. Standaard is instructie-afstemming ingesteld op false
Om een instructie-afstemmingsdataset te gebruiken, gebruikt u daarom instruction_tuned="True"
.
Voor invoer kunt u een training- en optionele validatiedirectory gebruiken. De training- en validatiedirectory's moeten een of meerdere JSON-regels (.jsonl) geformatteerde bestanden bevatten. In het bijzonder kan de train-directory ook een optioneel *.json-bestand bevatten dat de invoer- en uitvoerformaten beschrijft.
Het beste model wordt geselecteerd op basis van het validatieverlies, berekend aan het einde van elk tijdperk. Als er geen validatieset wordt opgegeven, wordt automatisch een (instelbaar) percentage van de trainingsgegevens gesplitst en gebruikt voor validatie.
De trainingsgegevens moeten worden opgemaakt in een JSON-regelsindeling (.jsonl), waarbij elke regel een woordenboek is dat één gegevensmonster vertegenwoordigt. Alle trainingsgegevens moeten in één map staan; het kan echter in meerdere .jsonl-bestanden worden opgeslagen. De bestandsextensie .jsonl is verplicht. De trainingsmap kan ook een template.json
bestand dat de invoer- en uitvoerformaten beschrijft. Als er geen sjabloonbestand wordt opgegeven, wordt het volgende sjabloon gebruikt:
In dit geval moeten de gegevens in de JSON-regels het volgende bevatten prompt
en completion
velden. Als er een aangepaste sjabloon wordt verstrekt, moet deze ook worden gebruikt prompt
en completion
toetsen om de invoer- en uitvoersjablonen te definiëren. Het volgende is een voorbeeld van een aangepaste sjabloon:
Hier moeten de gegevens in de JSON-regelitems de question
, context
en answer
te worden.
De uitvoer is een getraind model dat kan worden ingezet voor gevolgtrekking.
We bieden een subset van SEC-registratiegegevens van Amazon. Het wordt gedownload van openbaar beschikbaar EDGAR. Voor instructies over toegang tot de gegevens, zie Toegang tot EDGAR-gegevens.
Licentie: Creative Commons Attribution-ShareAlike-licentie (CC BY-SA 4.0)
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://aws.amazon.com/blogs/machine-learning/fine-tune-meta-llama-3-2-text-generation-models-for-generative-ai-inference-using-amazon-sagemaker-jumpstart/