Grote taalmodellen (LLM) zoals GPT-4 hebben aanzienlijke vooruitgang geboekt bij het verwerken en genereren van natuurlijke taal. Deze modellen zijn in staat tekst van hoge kwaliteit te genereren met opmerkelijke vloeiendheid en coherentie. Ze falen echter vaak wanneer ze worden belast met complexe bewerkingen of logisch redeneren. In dit artikel bespreken we de methoden om de betrouwbaarheid van ChatGPT te vergroten, zoals voorgesteld door OpenAI. Daarnaast zullen we ook enkele aanvullende technieken en aanwijzingen bespreken die andere onderzoekers hebben voorgesteld.
Lees ook: Wat is ChatGPT? Alles wat u moet weten
Modelmogelijkheden zijn afhankelijk van de context
Een veelgemaakte fout die wordt gemaakt door degenen die met GPT-3 werken, is ervan uit te gaan dat de mogelijkheden in alle contexten vastliggen. Als GPT-3 een vraag die eenvoudige logica vereist, onjuist beantwoordt, betekent dit niet noodzakelijkerwijs dat er geen eenvoudige reden voor is. GPT-3 kan af en toe worden opgelost met een betere prompt die het model naar de gewenste uitvoer leidt.
Splits complexe taken op in eenvoudigere subtaken
Het opsplitsen van gecompliceerde taken in eenvoudigere stukken is een manier om een model als ChatGPT meer tijd en ruimte te geven om na te denken. Door complexe instructies op te splitsen in kleinere subtaken, kan het model op elke subtaak gericht blijven. Het helpt ook om het meer tijd te geven om elke stap te beredeneren.
Als we bijvoorbeeld een model vragen om een lange tekst in de oorspronkelijke taal samen te vatten, kan deze in het Engels vervallen. Als we de taak echter opsplitsen in kortere subtaken, kunnen we het model naar een nauwkeurigere uitvoer leiden.
Lees ook: Hoe u ChatGPT optimaal gebruikt: tips en aanwijzingen
Vraag het model om eerst uitleg te geven en pas dan te reageren
Het model ertoe aanzetten de oplossing geleidelijk te beredeneren in plaats van meteen tot de conclusie te komen, is een andere effectieve methode om de nauwkeurigheid van de antwoorden te verbeteren. Hardop denken is een strategie die de kans op het juiste antwoord aanzienlijk kan vergroten. Het simpelweg toevoegen van Laten we dit stap voor stap doornemen aan antwoorden is de eenvoudigste methode om een model de oplossing te laten uitleggen.
Enkele voorbeelden
We kunnen het model op vele manieren vragen om zijn antwoorden uit te leggen, onder meer door een paar voorbeelden te gebruiken. Deze techniek omvat het demonstreren van enkele voorbeelden en wordt bestudeerd door Google-onderzoekers. Met behulp van deze methode kunnen we een dataset met verklaringen genereren die kan worden gebruikt om een model te verfijnen voor maximale prestaties.
Gefinetunede modellen
U moet een op maat gemaakt model verfijnen om de best mogelijke prestaties voor een taak te krijgen. Eric Zelikman, Yuhuai Wu en anderen publiceerden in 2022 een innovatieve methode die een prompt van een paar schoten gebruikt om een dataset met verklaringen te produceren die kan worden gebruikt om een model te verfijnen. Het doel is om kandidaat-verklaringen te genereren met behulp van een prompt van een paar schoten en alleen die te behouden die tot het juiste antwoord leiden.
Selectie-inferentieprompts
Het splitsen van de enkele prompt voor het maken van uitleg en antwoorden in kleinere segmenten is een uitbreiding van de chain-of-thought-methode. Een prompt (een "selectieprompt") kiest eerst een relevante subset van feiten uit de tekst. Een daaropvolgende prompt (de "inferentieprompt") rondt de geselecteerde gegevens af. Door deze aanwijzingen af te wisselen, kan men een redeneerlus produceren die tot een conclusie leidt.
Lees ook: Prompt Engineering: stijgend lucratief carrièrepad AI Chatbots Age
Minst-naar-meest uitnodigend
Least-to-most prompting is een methode om redeneringstaken op te splitsen in meer beheersbare, betrouwbare subtaken. Om het model zoals ChatGPT, een LLM, te vragen met iets als "Om een vraag op te lossen, moeten we eerst oplossen:" is het doel om er een subtaak uit te halen. Het model kan dan oplossen na het voltooien van die deeltaak.
Maieutische aansporing
In tegenstelling tot de voorgaande technieken, die proberen de waarschijnlijkheid van juiste antwoorden te maximaliseren, gebruikt een andere benadering GPT-3 om een boom van mogelijke verklaringen (zowel juiste als onjuiste) te genereren en vervolgens hun relaties te analyseren om te raden welke reeks correct is. Deze techniek werd bedacht maieutic prompting. Het werkt door een maieutische boom te bouwen, waarbij elk knooppunt een bewering is die waar of onwaar kan zijn.
Lees ook: OpenAI met Andrew Ng lanceert cursus over snelle engineering (beperkte vrije tijd)
Verificateurs
Een andere essentiële techniek voor het verbeteren van taakprestaties is het trainen van een verifier- of discriminatormodel om de output van het primaire generatieve model te evalueren. Als de discriminator de uitvoer afwijst, kunt u het generatieve model opnieuw bemonsteren totdat u een acceptabele uitvoer krijgt.
Conclusie
Onderzoek naar LLM's is zeer actief en evolueert snel. De onderzoekers willen niet alleen de modellen blijven verbeteren. Maar ze blijven ook ons begrip verbeteren van hoe we ze het beste kunnen inzetten. Hoewel toekomstige best practices de hier genoemde specifieke technieken kunnen overschaduwen, zullen de algemene principes erachter waarschijnlijk een essentieel onderdeel blijven van de toolkit van elke deskundige gebruiker. Door deze methoden te gebruiken en op de hoogte te blijven van nieuwe ontwikkelingen, kunnen we de betrouwbaarheid van ChatGPT en andere LLM's vergroten.
Meer informatie: Een inleiding tot grote taalmodellen (LLM's)
Verwant
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoAiStream. Web3 gegevensintelligentie. Kennis versterkt. Toegang hier.
- De toekomst slaan met Adryenn Ashley. Toegang hier.
- Koop en verkoop aandelen in PRE-IPO-bedrijven met PREIPO®. Toegang hier.
- Bron: https://www.analyticsvidhya.com/blog/2023/05/how-to-improve-the-reliability-of-chatgpt-techniques-and-tips/