Zephyrnet-logo

Prompt Engineering: de definitieve gids voor het ontketenen van de kracht van ChatGPT en andere taalmodellen – TechStartups

Datum:

ChatGPT heeft een creatieve revolutie in kunstmatige intelligentie (AI) teweeggebracht die werkelijk baanbrekend is. In slechts een jaar tijd heeft dit taalmodel indruk gemaakt op experts met zijn schrijfvaardigheid, bedreven behandeling van complexe taken en verrassend gebruiksvriendelijke interface. Toch zit er meer onder de oppervlakte. ChatGPT heeft een golf van creativiteit teweeggebracht, waardoor individuen inhoud kunnen produceren die ooit als onvoorstelbaar werd beschouwd.

De mogelijkheden met ChatGPT en vergelijkbare taalmodellen (LM's) zijn vrijwel onbeperkt. De sleutel ligt in één cruciale factor: het maken van de perfecte set invoerinstructies, prompts genoemd, die hun ware potentieel ontsluiten voor een breed spectrum aan taken. Zie het als de geheime taal die gebruik maakt van de innerlijke genialiteit van de AI en hem ertoe aanzet om met woorden wonderen te verrichten. Dit idee om prompts te maken om de optimale resultaten te behalen, leidde tot een nieuw vakgebied dat bekend staat als Prompt Engineering.

Wat is snelle engineering?

Prompt engineering is de praktijk van het vakkundig ontwerpen of vervaardigen van invoer (ook wel prompts genoemd) voor generatieve AI-taalmodellen zoals GPT-3, GPT-4 en soortgelijke grote taalmodellen om optimale uitvoer te produceren.

Je kunt het zien als het geven van AI het perfecte recept voor succes. Jij zorgt voor de ingrediënten (de prompt) en de AI zorgt voor het koken (genereert de output). Het doel is om aanwijzingen zorgvuldig vorm te geven om de best mogelijke resultaten uit deze geavanceerde taalmodellen te halen.

Net zoals we verbeteren door te oefenen, gaat het bij prompt-engineering om het experimenteren met de bewoording, structuur en indeling van prompts. Deze aanpassingen beïnvloeden het gedrag van het model en helpen bij het genereren van reacties die specifiek en contextueel relevant zijn.

Hoewel kunstmatige intelligentie al sinds eind jaren vijftig en begin jaren zestig bestaat, is prompt engineering een relatief recent en evoluerend vakgebied. Het verwerven van vaardigheden op het gebied van snelle engineering is essentieel voor het begrijpen van de sterke punten en beperkingen van grote taalmodellen (LLM's).

Snelle engineering blijkt bijzonder waardevol in toepassingen die een fijnafstelling of aanpassing van het gedrag van het model vereisen. Gebruikers kunnen experimenteren met aanwijzingen en deze verfijnen op basis van de reacties van het model om de gewenste resultaten te bereiken. De effectiviteit van prompts varieert afhankelijk van het specifieke model dat wordt gebruikt. Onderzoekers en praktijkmensen houden zich vaak bezig met vallen en opstaan ​​en experimenteren om de optimale aanwijzingen voor verschillende taken of toepassingen te identificeren.

Snelle engineering begrijpen:

Stel u ChatGPT voor als een krachtige motor die wacht op de juiste combinatie van brandstof en richting om met maximale efficiëntie te kunnen werken. In deze analogie functioneert de prompt zowel als brandstof als als kompas, waardoor ChatGPT de nodige instructies krijgt om een ​​taak uit te voeren. Of het nu gaat om een ​​eenvoudige vraag, een creatief ingelijste prompt of een veelzijdige reeks richtlijnen, de prompt vormt de basis voor de prestaties van de AI.

Onderzoekers gebruiken bijvoorbeeld prompt engineering om de mogelijkheden van LLM's te verbeteren voor verschillende veel voorkomende en complexe taken, zoals het beantwoorden van vragen en rekenkundig redeneren. Ontwikkelaars maken gebruik van snelle engineering om robuuste en effectieve technieken te creëren voor interactie met LLM's en andere tools.

Prompt-engineering gaat echter verder dan alleen het maken van prompts. Het omvat een gevarieerde reeks vaardigheden en technieken die nuttig zijn voor de interactie met en het ontwikkelen van LLM's. Het is een cruciale vaardigheid voor het omgaan met, bouwen met en begrijpen van de capaciteiten van LLM's. Snelle engineering kan bijdragen aan het verbeteren van de veiligheid van LLM's en het introduceren van nieuwe mogelijkheden, zoals het uitbreiden van LLM's met domeinkennis en externe hulpmiddelen.

Hoe u snelle engineering kunt faciliteren:

  1. specificiteit: De precisie van uw prompt correleert rechtstreeks met de specificiteit van de reactie van de AI. Het aanpassen van de frasering, het opnemen van context en het aanbieden van voorbeelden dienen als navigatiehulpmiddelen, waardoor ChatGPT naar een meer gerichte en op maat gemaakte output wordt gestuurd.
  2. Controle: Door de prompt te maken, kunt u de stijl, toon en indeling van de door AI gegenereerde inhoud beïnvloeden. Of u nu op zoek bent naar een poëtisch stuk of een feitelijke samenvatting, de prompt fungeert als richtlijn en geeft vorm aan het resultaat op basis van uw voorkeuren.
  3. Creativiteit: Snelle engineering ontgrendelt de capaciteit van ChatGPT om diverse creatieve formaten te genereren, waaronder gedichten, code, scripts, muziekcomposities, e-mails en brieven. Hoe genuanceerder en gedetailleerder de prompt, hoe creatiever en gevarieerder de output van de AI.
  4. Efficiëntie: Door tijd te investeren in het verfijnen van uw prompt, kunt u aanzienlijke moeite en tijd besparen in vergelijking met het iteratief experimenteren met verschillende benaderingen. Een goed gemaakte prompt stroomlijnt het begrip van de AI, wat resulteert in efficiëntere en nauwkeurigere reacties.

Illustratieve voorbeelden:

  • Eenvoudige prompt: “Schrijf een gedicht over een robot die verliefd wordt op een mens.”
  • Specifieke prompt: “Componeer een sonnet in jambische pentameter en onderzoek thema’s als eenzaamheid en isolatie in een futuristische cyberpunksetting.”
  • Instructieprompt: “Genereer een script voor een korte komische sketch tussen twee kantoormedewerkers, waarbij de nadruk ligt op de absurditeit van het bedrijfsjargon.”

Voordelen van snelle engineering:

  • Ontgrendel het volledige potentieel: Direct ChatGPT om uw specifieke doelstellingen te bereiken, in plaats van te vertrouwen op de interpretatie ervan.
  • Verhoog de productiviteit: Bespaar tijd en moeite door vanaf het begin een goed gedefinieerde prompt te formuleren.
  • Verbeter creativiteit: Snelle engineering vergemakkelijkt de creatie van originele en unieke inhoud in verschillende formaten.
  • Communicatie verbeteren: Effectiever communiceren met ChatGPT om de gewenste resultaten te bereiken.

Aan de slag met Prompt Engineering:

  • Ontdek voorbeelden en tutorials: Maak uzelf online vertrouwd met succesvolle promptstrategieën.
  • Experiment: Test verschillende aanwijzingen om te ontdekken wat de beste resultaten oplevert.
  • Omarm creativiteit: Schroom niet om creativiteit in uw aanwijzingen te injecteren.

In wezen stelt het beheersen van de kunst van snelle engineering gebruikers in staat het potentieel van ChatGPT te ontketenen, waardoor het wordt omgezet in een waardevol hulpmiddel voor een scala aan taken, variërend van creatief schrijven en het verzamelen van informatie tot het simpelweg genieten van boeiende interacties met AI.

Om in de wereld van snelle engineering te duiken, heeft OpenAI een reeks handleidingen uitgerold met strategieën en tactieken om de prestaties van grote taalmodellen, waaronder die van GPT-4, te verbeteren. De OpenAI Prompt Engineering Guide legt methoden uit die soms kunnen worden gecombineerd voor een nog effectiever resultaat, en OpenAI moedigt gebruikers aan om te experimenteren en de benaderingen te ontdekken die het beste bij hen passen.

Het is vermeldenswaard dat sommige voorbeelden in de OpenAI Prompt Engineering Guide momenteel uitsluitend werken met het meest geavanceerde model, GPT-4. Als u een situatie tegenkomt waarin een model tekortschiet in een taak, raadt OpenAI u in het algemeen aan een geavanceerder model te proberen.

Snelle technische strategieën en tactieken

Hieronder staan ​​zes strategieën die OpenAI aanbeveelt om betere resultaten te krijgen met uw aanwijzingen.

Zes strategieën om betere resultaten te behalen

Schrijf duidelijke instructies

Deze modellen kunnen je gedachten niet lezen. Als de uitvoer te lang is, vraag dan om korte antwoorden. Als de resultaten te eenvoudig zijn, vraag dan om schrijven op expertniveau. Als het formaat je niet bevalt, demonstreer dan het formaat dat je graag zou willen zien. Hoe minder het model hoeft te raden wat je wilt, hoe groter de kans dat je het krijgt.

Tactiek:

Geef referentietekst op

Taalmodellen kunnen vol vertrouwen valse antwoorden verzinnen, vooral als ze worden gevraagd naar esoterische onderwerpen of naar citaten en URL's. Net zoals een blad met aantekeningen een leerling kan helpen een toets beter te maken, kan het verstrekken van referentieteksten bij deze modellen helpen bij het beantwoorden met minder verzinsels.

Tactiek:

Splits complexe taken op in eenvoudigere subtaken

Net zoals het in de software-engineering een goede gewoonte is om een ​​complex systeem op te splitsen in een reeks modulaire componenten, geldt hetzelfde voor taken die aan een taalmodel worden onderworpen. Complexe taken hebben doorgaans een hoger foutenpercentage dan eenvoudigere taken. Bovendien kunnen complexe taken vaak opnieuw worden gedefinieerd als een workflow van eenvoudigere taken waarin de output van eerdere taken wordt gebruikt om de input voor latere taken samen te stellen.

Tactiek:

Geef het model de tijd om na te denken

Als u wordt gevraagd om 17 bij 28 te vermenigvuldigen, weet u dit misschien niet meteen, maar u kunt er na verloop van tijd toch achter komen. Op dezelfde manier maken modellen meer redeneerfouten wanneer ze meteen proberen te antwoorden, dan dat ze de tijd nemen om een ​​antwoord uit te werken. Door te vragen om een ​​‘gedachteketen’ voordat een antwoord wordt gegeven, kan het model zijn weg naar correcte antwoorden betrouwbaarder redeneren.

Tactiek:

Gebruik externe hulpmiddelen

Compenseer de zwakke punten van het model door het de resultaten van andere tools te geven. Een tekstophaalsysteem (ook wel RAG of retrieval augmentedgeneration genoemd) kan het model bijvoorbeeld over relevante documenten vertellen. Een code-uitvoeringsengine zoals OpenAI's Code Interpreter kan het model helpen wiskunde te doen en code uit te voeren. Als een taak betrouwbaarder of efficiënter kan worden uitgevoerd door een tool dan door een taalmodel, ontlast deze dan om het beste uit beide te halen.

Tactiek:

Test veranderingen systematisch

Het verbeteren van prestaties is eenvoudiger als u het kunt meten. In sommige gevallen zal een wijziging van een prompt betere prestaties opleveren bij een paar geïsoleerde voorbeelden, maar leiden tot slechtere algehele prestaties bij een meer representatieve reeks voorbeelden. Om er zeker van te zijn dat een verandering netto positief is voor de prestaties, kan het daarom nodig zijn om een ​​uitgebreid testpakket te definiëren (ook wel een “evaluatie” genoemd).

Tactiek:

Tactiek

Elk van de hierboven genoemde strategieën kan worden uitgevoerd met specifieke tactieken. Deze tactieken zijn bedoeld om ideeën te geven voor dingen die je kunt proberen. Ze zijn geenszins volledig alomvattend, en u moet zich vrij voelen om creatieve ideeën uit te proberen die hier niet worden weergegeven.

Strategie: Schrijf duidelijke instructies 

Tactiek: Neem details op in uw vraag om relevantere antwoorden te krijgen

Om een ​​zeer relevant antwoord te krijgen, moet u ervoor zorgen dat verzoeken belangrijke details of context bevatten. Anders laat je het aan het model over om te raden wat je bedoelt.

Erger Betere
Hoe voeg ik getallen toe in Excel? Hoe tel ik een rij met dollarbedragen op in Excel? Ik wil dit automatisch doen voor een heel blad met rijen, waarbij alle totalen aan de rechterkant eindigen in een kolom met de naam 'Totaal'.
Wie is president? Wie was de president van Mexico in 2021, en hoe vaak worden er verkiezingen gehouden?
Schrijf code om de Fibonacci-reeks te berekenen. Schrijf een TypeScript-functie om de Fibonacci-reeks efficiënt te berekenen. Geef royaal commentaar op de code om uit te leggen wat elk stuk doet en waarom het op die manier is geschreven.
Vat de notulen van de vergadering samen. Vat de notulen van de vergadering samen in één alinea. Schrijf vervolgens een afprijslijst van de sprekers en elk van hun belangrijkste punten. Noem ten slotte de volgende stappen of eventuele actiepunten die door de sprekers zijn voorgesteld.

Snelle technische voorbeelden:

Tactiek: Vraag het model om een ​​persona aan te nemen

THet systeembericht kan worden gebruikt om de persona te specificeren die door het model in zijn antwoorden wordt gebruikt.

SYSTEEM: Als ik hulp vraag om iets te schrijven, antwoord je met een document waarin in elke paragraaf minimaal één grap of speelse opmerking staat.

GEBRUIKER: Schrijf een bedankbriefje aan mijn leverancier van stalen bouten omdat ik de levering op tijd en op korte termijn heb ontvangen. Hierdoor konden wij een belangrijke bestelling uitleveren.

Openen in Speeltuin

Tactiek: Gebruik scheidingstekens om afzonderlijke delen van de invoer duidelijk aan te geven

Scheidingstekens zoals drievoudige aanhalingstekens, XML-tags, sectietitels, enz. kunnen helpen bij het afbakenen van tekstgedeelten die anders moeten worden behandeld.

GEBRUIKER: Vat de tekst, gescheiden door drievoudige aanhalingstekens, samen met een haiku. “””Voeg hier tekst in”””

Openen in Speeltuin

U kunt de rest van de snelle technische voorbeelden lezen op OpenAI.com

Hieronder vindt u een snelle technische tutorial van Anu Kubo over hoe u ChatGPT en grote taalmodellen (LLM's) kunt krijgen om u perfecte antwoorden te geven.

[Ingesloten inhoud]


spot_img

Laatste intelligentie

spot_img