Zephyrnet-logo

Een korte geschiedenis van generatieve AI – DATAVERSITY

Datum:

generatieve AIgeneratieve AI
Ole.CNX / Shutterstock

Generatieve AI heeft een vrij korte geschiedenis; de technologie werd voor het eerst geïntroduceerd in de jaren zestig in de vorm van chatbots. Het is een vorm van kunstmatige intelligentie die momenteel binnen enkele seconden tekst, afbeeldingen, video's, audio en synthetische gegevens van hoge kwaliteit kan produceren. Pas in 1960, toen het concept van het generatieve vijandige netwerk (GAN) werd geïntroduceerd, evolueerde generatieve AI echter zo ver dat het in staat was om afbeeldingen, video's en audio te maken die authentieke opnames van echte mensen lijken.

Momenteel is generatieve AI een belangrijk onderdeel van ChatGPT en zijn varianten.

De 1950s

Generatieve AI is gebaseerd op machine learning en deep learning-algoritmen. Het eerste machine learning-algoritme werd in 1952 door Arthur Samuel ontwikkeld voor het spelen van dammen. Hij bedacht ook de term ‘machine learning’.

Het eerste ‘neurale netwerk’ dat getraind kon worden, werd genoemd de Perceptron, en werd in 1957 ontwikkeld door een psycholoog van de Cornell University, Frank Rosenblatt. Het ontwerp van de Perceptron leek sterk op moderne neurale netwerken, maar had slechts 'één' laag met instelbare drempels en gewichten, die de invoer- en uitvoerlagen van elkaar scheidden. Dit systeem faalde omdat het te tijdrovend was.

De jaren 1960 en 1970

Het eerste historische voorbeeld van generatieve AI heette ELIZA. Het kan ook worden beschouwd als een vroege versie van chatbots. Het werd in 1961 opgericht door Joseph Weizenbaum. ELIZA was een pratend computerprogramma dat op een mens zou reageren, met behulp van een natuurlijke taal en reacties die ontworpen waren om empathisch te klinken.

In de jaren zestig en zeventig werd het basisonderzoek naar computervisie en enkele basisherkenningspatronen uitgevoerd. Gezichtsherkenning maakte een dramatische sprong voorwaarts toen Ann B. Lesk, Leon D. Harmon en AJ Goldstein de nauwkeurigheid aanzienlijk verbeterden (Mens-machine-interactie bij identificatie van menselijk gezicht, 1972). Het team ontwikkelde 21 specifieke markers, waaronder kenmerken zoals de dikte van de lippen en de haarkleur, om gezichten automatisch te identificeren. 

In de jaren zeventig begon Seppo Linnainmaa backpropagation te gebruiken. De voorwaarde "terugvermeerdering” is een proces waarbij fouten achteruit worden voortgeplant, als onderdeel van het leerproces. De betrokken stappen zijn:

  1. Verwerkt aan het uitvoereinde
  2. Verzonden om achterwaarts te worden gedistribueerd 
  3. Bewogen door de lagen van het netwerk voor training en leren 

(Backpropagation wordt gebruikt bij het trainen van diepe neurale netwerken.) 

De eerste AI-winter scheidt machine learning en kunstmatige intelligentie

De eerste AI-winter begon en eindigde van ongeveer 1973 tot 1979 – er werden beloften gedaan, maar de verwachtingen werden niet waargemaakt. Instanties die onderzoek naar kunstmatige intelligentie hadden gefinancierd (Darpa, NRC en de Britse regering) werden plotseling in verlegenheid gebracht door het gebrek aan vooruitgang in de ontwikkeling ervan. 

Machine learning (ML) bleef echter evolueren. Niet omdat het nog steeds overheidsfinanciering ontving, maar omdat machinaal leren als responsinstrument voor het bedrijfsleven uiterst nuttig was geworden. machine learning was begonnen als een trainingstechniek voor AI, maar er werd ontdekt dat het ook gebruikt kon worden om eenvoudige taken uit te voeren, zoals het beantwoorden van de telefoon en het doorverbinden van oproepen naar de juiste persoon. Hoewel ML-programma's misschien niet in staat zijn een intelligent gesprek te voeren, kunnen ze wel eenvoudige, maar zeer nuttige taken uitvoeren. Bedrijven waren niet geïnteresseerd in het opgeven van een tool die zowel kostenefficiënt als nuttig was.

Bedrijven kozen ervoor om hun eigen onderzoek voor de ontwikkeling van machinaal leren te financieren, en voormalige onderzoekers reorganiseerden zichzelf in een aparte industrie – totdat ze in de jaren negentig opnieuw met AI fuseerden.

Hoewel neurale netwerken in 1944 door twee onderzoekers van de Universiteit van Chicago, Warren McCullough en Walter Pitts, werden voorgesteld als het eerste functionele ‘meergelaagde’ kunstmatige neurale netwerk, Cognitron, werd in 1975 ontwikkeld door Kunihiko Fukushima.

Neurale netwerken leggen een basis voor het gebruik van machine learning en deep learning. Hun ontwerp ondersteunt invoer- en uitvoerlagen, en de verborgen lagen ertussen worden gebruikt om de invoergegevens te transformeren, waardoor deze bruikbaar worden voor de uitvoerlaag. Met dit nieuwe ontwerp is de gezichts- en spraakherkenning dramatisch verbeterd. Verborgen lagen vormen ook de basis voor diepgaand leren.

In 1979, Kunhiko Fukushima stelde voor om een ​​hiërarchisch, meerlagig kunstmatig neuraal netwerk te ontwikkelen, dat hij noemde Neocognitron. Dit was het eerste deep learning neurale netwerk. Zijn ontwerp ondersteunde het vermogen van de computer om visuele patronen te leren identificeren, en meer specifiek, handgeschreven karakterherkenning. Zijn ontwerp maakte het ook mogelijk om belangrijke gegevens handmatig aan te passen, waardoor mensen het ‘gewicht’ van bepaalde verbindingen konden vergroten.

De jaren tachtig en de tweede AI-winter

In 1982 werd een andere ontdekking gedaan door John Hopfield, die een nieuwe vorm van neuraal netwerk ontwikkelde: het Hopfield-net – met een geheel andere aanpak. Het Hopfield-net verzamelde en haalde herinneringen op meer zoals het menselijk brein dat doet dan eerdere systemen.

De tweede AI-winter begon echter grofweg in 1984 en duurde tot 1990, en vertraagde de ontwikkeling van kunstmatige intelligentie en generatieve AI. De woede en frustratie over gebroken beloften en gebroken verwachtingen waren zo intens dat de term ‘kunstmatige intelligentie’ de status van pseudowetenschap kreeg en er vaak met minachting over werd gesproken. Er was een breed gevoel van scepticisme ontstaan ​​ten aanzien van AI. Helaas werd er bezuinigd op het merendeel van het AI- en deep learning-onderzoek.

In 1986 introduceerden David Rumelhart en zijn team A new way  van het trainen van neurale netwerken, met behulp van de backpropagatietechniek die in de jaren zeventig werd ontwikkeld.

Eind jaren tachtig maakte MOS (Metaaloxide halfgeleiders), ontwikkeld in 1959) werden samengevoegd met VLSI (Integratie op zeer grote schaal) en zorgde voor een praktischer, efficiënter kunstmatig neuraal netwerk. Deze combinatie werd a genoemd complementaire MOS (of een CMOS).

Diep leren werd een functionele realiteit in 1989, toen Yann LeCun en zijn team een ​​backpropagation-algoritme met neurale netwerken gebruikten om handgeschreven postcodes te herkennen.

Diepe leer gebruikt algoritmen om de data te verwerken en het menselijke denkproces na te bootsen. Het maakt gebruik van lagen algoritmen die zijn ontworpen om gegevens te verwerken, objecten visueel te herkennen en menselijke spraak te begrijpen. Gegevens bewegen door elke laag, waarbij de uitvoer van de vorige laag de invoer bevat die nodig is voor de volgende laag. Bij deep learning zorgen de extra lagen die worden gebruikt voor ‘abstracties’ op een hoger niveau, wat betere voorspellingen en betere classificaties oplevert. Hoe meer lagen er worden gebruikt, hoe groter het potentieel voor betere voorspellingen. 

Diep leren is een uiterst nuttig trainingsproces geworden, dat beeldherkenning, stemherkenning en de verwerking van grote hoeveelheden gegevens ondersteunt.

De jaren negentig en AI-onderzoek herstelt zich

Omdat de financiering voor kunstmatige intelligentie in de jaren negentig weer op gang kwam, kreeg machine learning, als trainingsmechanisme, ook financiering. De machine learning-industrie was gedurende de tweede AI-winter onderzoek blijven doen naar neurale netwerken en begon in de jaren negentig te bloeien. Een groot deel van het aanhoudende succes van machine learning was het gebruik van karakter- en spraakherkenning, gecombineerd met de overweldigende groei van internet en het gebruik van personal computers.

Het concept van ‘stimuleren’ werd in 1990 in de krant gedeeld De kracht van zwak leervermogen, door Robert Schapire. Hij legde uit dat een groep zwakke leerlingen één enkele sterke leerling kan creëren. Algoritmen versterken de vooringenomenheid tijdens het begeleide leerproces te verminderen en machine learning-algoritmen op te nemen die in staat zijn om een ​​aantal zwakke leerlingen om te zetten in een paar sterke. (Zwakke leerlingen maken ongeveer 50% van de tijd correcte voorspellingen.) 

De computergame-industrie verdient aanzienlijke hoeveelheden lof voor haar bijdrage aan de evolutie van generatieve AI. 3D grafische kaarten, de voorlopers van grafische verwerkingseenheden (GPU's), werden voor het eerst geïntroduceerd in het begin van de jaren negentig om de presentatie van grafische afbeeldingen in videogames te verbeteren. 

In 1997 creëerden Juergen Schmidhuber en Sepp Hochreiter de “lang kortetermijngeheugen”(LSTM) voor gebruik met terugkerende neurale netwerken. Momenteel wordt deze techniek bij het merendeel van de spraakherkenningstrainingen gebruikt. LSTM ondersteunt leertaken waarvoor een geheugen nodig is dat gebeurtenissen duizenden stappen eerder beslaat, en die vaak belangrijk zijn tijdens gesprekken.

Nvidia (verantwoordelijk voor veel vooruitgang op het gebied van gametechnologie) ontwikkelde in 1999 een geavanceerde GPU, met rekensnelheden die met duizend werden verhoogd. Hun eerste GPU heette de GeForce 256

Het was een verrassende realisatie dat GPU's voor meer dan alleen videogames konden worden gebruikt. De nieuwe GPU's werden toegepast op kunstmatige neurale netwerken, met verbazingwekkend positieve resultaten. GPU's zijn behoorlijk nuttig geworden bij machinaal leren, waarbij ongeveer 200 keer zoveel processors per chip worden gebruikt in vergelijking met een centrale verwerkingseenheid. (Centrale verwerkingseenheden(CPU's zijn echter flexibeler en voeren een bredere selectie aan berekeningen uit, terwijl GPU's doorgaans op maat zijn gemaakt voor specifieke gebruiksscenario's.)

De 2000s

De grote uitdaging voor gezichtsherkenning, a promotie om te verbeteren gezichtsherkenningstechnologie werd gefinancierd door de Amerikaanse overheid en vond plaats tussen 2004 en 2006. Het resulteerde in nieuwe gezichtsherkenningstechnieken en gezichtsherkenningsprestaties. De nieuw ontwikkelde algoritmen waren tot tien keer nauwkeuriger dan de gezichtsherkenningsalgoritmen die in 2002 werden gebruikt. Sommige algoritmen konden zelfs verschillen tussen eeneiige tweelingen identificeren.

De jaren 2010 en virtuele assistenten en chatbots

Op 4 oktober 2011, Siri, de eerste digitale virtuele assistent die als functioneel werd beschouwd, kwam als dienst bij de iPhone 4S. Het gebruik van chatbots ook aanzienlijk toegenomen. 

In 2014 werd het concept van het generatieve vijandige netwerk (GAN) gepresenteerd. GAN's worden gebruikt om afbeeldingen, video's en audio te maken die lijken op authentieke opnames van echte situaties.          

Een generatief vijandig netwerk maakt gebruik van twee neurale netwerken die gelijktijdig vijandige training hebben gehad: het ene neurale netwerk fungeert als discriminator en het andere als generator. De discriminator is getraind om onderscheid te maken tussen gegenereerde gegevens en echte gegevens. De generator creëert synthetische gegevens en probeert echte gegevens te imiteren. Door te oefenen kan de generator beter worden in het genereren van steeds realistischere opnames om de discriminator te misleiden. GAN's kunnen synthetische gegevens creëren die moeilijk, zo niet onmogelijk, als kunstmatig te herkennen zijn.

De jaren 2020 en slimmere chatbots

In november 2022 introduceerde OpenAI ChatGPT, een generatieve AI gecombineerd met grote taalmodellen. ChatGPT en zijn varianten hebben een nieuw niveau van kunstmatige intelligentie bereikt. Deze ‘slimmere chatbots’ kunnen onderzoek doen, redelijk goed schrijven ondersteunen en realistische video’s, audio en afbeeldingen genereren.

De combinatie van generatieve AI-training met grote taalmodellen heeft geresulteerd in kunstmatige intelligentie die het vermogen heeft om te denken en te redeneren. Ze hebben misschien ook het vermogen om zich 'voor te stellen'. ChatGPT wordt beschuldigd van hallucineren, wat geïnterpreteerd kan worden als het gebruik van verbeeldingskracht.

spot_img

Laatste intelligentie

spot_img