Zephyrnet-logo

Hoe de betrouwbaarheid van ChatGPT te verbeteren: technieken en tips

Datum:

Grote taalmodellen (LLM) zoals GPT-4 hebben aanzienlijke vooruitgang geboekt bij het verwerken en genereren van natuurlijke taal.

Grote taalmodellen (LLM) zoals GPT-4 hebben aanzienlijke vooruitgang geboekt bij het verwerken en genereren van natuurlijke taal. Deze modellen zijn in staat tekst van hoge kwaliteit te genereren met opmerkelijke vloeiendheid en coherentie. Ze falen echter vaak wanneer ze worden belast met complexe bewerkingen of logisch redeneren. In dit artikel bespreken we de methoden om de betrouwbaarheid van ChatGPT te vergroten, zoals voorgesteld door OpenAI. Daarnaast zullen we ook enkele aanvullende technieken en aanwijzingen bespreken die andere onderzoekers hebben voorgesteld.

Lees ook: Wat is ChatGPT? Alles wat u moet weten

Modelmogelijkheden zijn afhankelijk van de context

Een veelgemaakte fout die wordt gemaakt door degenen die met GPT-3 werken, is ervan uit te gaan dat de mogelijkheden in alle contexten vastliggen. Als GPT-3 een vraag die eenvoudige logica vereist, onjuist beantwoordt, betekent dit niet noodzakelijkerwijs dat er geen eenvoudige reden voor is. GPT-3 kan af en toe worden opgelost met een betere prompt die het model naar de gewenste uitvoer leidt.

Splits complexe taken op in eenvoudigere subtaken

Het opsplitsen van gecompliceerde taken in eenvoudigere stukken is een manier om een ​​model als ChatGPT meer tijd en ruimte te geven om na te denken. Door complexe instructies op te splitsen in kleinere subtaken, kan het model op elke subtaak gericht blijven. Het helpt ook om het meer tijd te geven om elke stap te beredeneren.

Als we bijvoorbeeld een model vragen om een ​​lange tekst in de oorspronkelijke taal samen te vatten, kan deze in het Engels vervallen. Als we de taak echter opsplitsen in kortere subtaken, kunnen we het model naar een nauwkeurigere uitvoer leiden.

Lees ook: Hoe u ChatGPT optimaal gebruikt: tips en aanwijzingen

Vraag het model om eerst uitleg te geven en pas dan te reageren

Vraag het model om eerst uit te leggen, dan te reageren | prompt | chatGPT | GPT |

Het model ertoe aanzetten de oplossing geleidelijk te beredeneren in plaats van meteen tot de conclusie te komen, is een andere effectieve methode om de nauwkeurigheid van de antwoorden te verbeteren. Hardop denken is een strategie die de kans op het juiste antwoord aanzienlijk kan vergroten. Het simpelweg toevoegen van Laten we dit stap voor stap doornemen aan antwoorden is de eenvoudigste methode om een ​​model de oplossing te laten uitleggen.

Enkele voorbeelden

We kunnen het model op vele manieren vragen om zijn antwoorden uit te leggen, onder meer door een paar voorbeelden te gebruiken. Deze techniek omvat het demonstreren van enkele voorbeelden en wordt bestudeerd door Google-onderzoekers. Met behulp van deze methode kunnen we een dataset met verklaringen genereren die kan worden gebruikt om een ​​model te verfijnen voor maximale prestaties.

Gefinetunede modellen

U moet een op maat gemaakt model verfijnen om de best mogelijke prestaties voor een taak te krijgen. Eric Zelikman, Yuhuai Wu en anderen publiceerden in 2022 een innovatieve methode die een prompt van een paar schoten gebruikt om een ​​dataset met verklaringen te produceren die kan worden gebruikt om een ​​model te verfijnen. Het doel is om kandidaat-verklaringen te genereren met behulp van een prompt van een paar schoten en alleen die te behouden die tot het juiste antwoord leiden.

Selectie-inferentieprompts

Het splitsen van de enkele prompt voor het maken van uitleg en antwoorden in kleinere segmenten is een uitbreiding van de chain-of-thought-methode. Een prompt (een "selectieprompt") kiest eerst een relevante subset van feiten uit de tekst. Een daaropvolgende prompt (de "inferentieprompt") rondt de geselecteerde gegevens af. Door deze aanwijzingen af ​​te wisselen, kan men een redeneerlus produceren die tot een conclusie leidt.

Lees ook: Prompt Engineering: stijgend lucratief carrièrepad AI Chatbots Age

Minst-naar-meest uitnodigend

Least-to-most prompting is een methode om redeneringstaken op te splitsen in meer beheersbare, betrouwbare subtaken. Om het model zoals ChatGPT, een LLM, te vragen met iets als "Om een ​​vraag op te lossen, moeten we eerst oplossen:" is het doel om er een subtaak uit te halen. Het model kan dan oplossen na het voltooien van die deeltaak.

Maieutische aansporing

Maieutische prompttechniek | ChatGPT-betrouwbaarheid | GPT |

In tegenstelling tot de voorgaande technieken, die proberen de waarschijnlijkheid van juiste antwoorden te maximaliseren, gebruikt een andere benadering GPT-3 om een ​​boom van mogelijke verklaringen (zowel juiste als onjuiste) te genereren en vervolgens hun relaties te analyseren om te raden welke reeks correct is. Deze techniek werd bedacht maieutic prompting. Het werkt door een maieutische boom te bouwen, waarbij elk knooppunt een bewering is die waar of onwaar kan zijn.

Lees ook: OpenAI met Andrew Ng lanceert cursus over snelle engineering (beperkte vrije tijd)

Verificateurs

Een andere essentiële techniek voor het verbeteren van taakprestaties is het trainen van een verifier- of discriminatormodel om de output van het primaire generatieve model te evalueren. Als de discriminator de uitvoer afwijst, kunt u het generatieve model opnieuw bemonsteren totdat u een acceptabele uitvoer krijgt.

Conclusie

Onderzoek naar LLM's is zeer actief en evolueert snel. De onderzoekers willen niet alleen de modellen blijven verbeteren. Maar ze blijven ook ons ​​begrip verbeteren van hoe we ze het beste kunnen inzetten. Hoewel toekomstige best practices de hier genoemde specifieke technieken kunnen overschaduwen, zullen de algemene principes erachter waarschijnlijk een essentieel onderdeel blijven van de toolkit van elke deskundige gebruiker. Door deze methoden te gebruiken en op de hoogte te blijven van nieuwe ontwikkelingen, kunnen we de betrouwbaarheid van ChatGPT en andere LLM's vergroten.

Meer informatie: Een inleiding tot grote taalmodellen (LLM's)

spot_img

Laatste intelligentie

spot_img