Zephyrnet-logo

Wat is een GPU? De chips die de AI-boom aandrijven, en waarom ze biljoenen waard zijn

Datum:

Terwijl de wereld zich haast om gebruik te maken van de nieuwste golf van AI-technologieën, is één stukje hightech hardware een verrassend populair goed geworden: de grafische verwerkingseenheid, of GPU.

Een eersteklas GPU kan voor een prijs worden verkocht tienduizenden dollars, en toonaangevende fabrikant Nvidia heeft zijn marktwaardering gezien voorbij de 2 biljoen dollar stijgen naarmate de vraag naar zijn producten stijgt.

GPU's zijn ook niet alleen hoogwaardige AI-producten. Er zijn ook minder krachtige GPU's in telefoons, laptops en gameconsoles.

Je vraagt ​​je nu waarschijnlijk af: wat is een GPU eigenlijk? En wat maakt ze zo bijzonder?

Wat is een GPU?

GPU's zijn oorspronkelijk in de eerste plaats ontworpen om snel complexe 3D-scènes en -objecten te genereren en weer te geven, zoals die welke betrokken zijn bij videogames en computerondersteund ontwerp software. Moderne GPU's kunnen ook taken uitvoeren zoals decomprimeren videostreams.

Het ‘brein’ van de meeste computers is een chip die een centrale verwerkingseenheid (CPU) wordt genoemd. CPU's kunnen worden gebruikt om grafische scènes te genereren en video's te decomprimeren, maar ze zijn doorgaans veel langzamer en minder efficiënt bij deze taken in vergelijking met GPU's. CPU's zijn beter geschikt voor algemene rekentaken, zoals tekstverwerking en bladeren door webpagina's.

Hoe verschillen GPU's van CPU's?

Een typische moderne CPU bestaat uit tussen de 8 en 16 “kernen”, die elk complexe taken op een sequentiële manier kunnen verwerken.

GPU's hebben daarentegen duizenden relatief kleine kernen, die zijn ontworpen om allemaal tegelijkertijd ("parallel") te werken om een ​​snelle algehele verwerking te bereiken. Dit maakt ze zeer geschikt voor taken die een groot aantal eenvoudige handelingen vereisen die tegelijkertijd kunnen worden uitgevoerd, in plaats van na elkaar.

Traditionele GPU's zijn er in twee hoofdvarianten.

Ten eerste zijn er stand-alone chips, die vaak in add-on-kaarten voor grote desktopcomputers worden geleverd. Ten tweede zijn er GPU's gecombineerd met een CPU in hetzelfde chippakket, die je vaak terugvindt in laptops en gameconsoles zoals de PlayStation 5. In beide gevallen bepaalt de CPU wat de GPU doet.

Waarom zijn GPU's zo nuttig voor AI?

Het blijkt dat GPU's kunnen worden hergebruikt om meer te doen dan alleen grafische scènes genereren.

Veel van de machine learning-technieken erachter kunstmatige intelligentie, zoals diepe neurale netwerken, zijn sterk afhankelijk van verschillende vormen van matrixvermenigvuldiging.

Dit is een wiskundige bewerking waarbij zeer grote reeksen getallen worden vermenigvuldigd en bij elkaar opgeteld. Deze bewerkingen zijn zeer geschikt voor parallelle verwerking en kunnen daarom zeer snel door GPU's worden uitgevoerd.

Wat is de toekomst voor GPU's?

De rekenkracht van GPU's neemt gestaag toe als gevolg van de toename van het aantal cores en hun werksnelheden. Deze verbeteringen worden voornamelijk gedreven door verbeteringen in de chipproductie door bedrijven zoals TSMC in Taiwan.

De omvang van individuele transistors – de basiscomponenten van elke computerchip – neemt af, waardoor er meer transistors in dezelfde hoeveelheid fysieke ruimte kunnen worden geplaatst.

Dat is echter niet het hele verhaal. Hoewel traditionele GPU's nuttig zijn voor AI-gerelateerde rekentaken, zijn ze niet optimaal.

Net zoals GPU's oorspronkelijk zijn ontworpen om computers te versnellen door gespecialiseerde verwerking voor grafische afbeeldingen te bieden, zijn er versnellers die zijn ontworpen om machine learning-taken te versnellen. Deze versnellers worden vaak datacenter-GPU's genoemd.

Enkele van de meest populaire versnellers, gemaakt door bedrijven als AMD en Nvidia, begonnen als traditionele GPU's. In de loop van de tijd zijn hun ontwerpen geëvolueerd om verschillende machine learning-taken beter aan te kunnen, bijvoorbeeld door de efficiëntere “hersenen zweven" nummer formaat.

Andere versnellers, zoals die van Google tensor verwerkingseenheden en die van Tenstorrent Tensix kernen, zijn van de grond af aan ontworpen om diepe neurale netwerken te versnellen.

GPU's van datacenters en andere AI-versnellers worden doorgaans geleverd met aanzienlijk meer geheugen dan traditionele GPU-uitbreidingskaarten, wat cruciaal is voor het trainen van grote AI-modellen. Hoe groter het AI-model, hoe capabeler en nauwkeuriger het is.

Om de training verder te versnellen en nog grotere AI-modellen, zoals ChatGPT, te kunnen verwerken, kunnen veel GPU's van datacenters worden samengevoegd om een ​​supercomputer te vormen. Dit vereist complexere software om de beschikbare rekenkracht goed te benutten. Een andere benadering is om één enkele zeer grote versneller creëren, zoals de "processor op wafelschaal”geproduceerd door Cerebras.

Zijn gespecialiseerde chips de toekomst?

CPU's hebben ook niet stil gestaan. Recente CPU's van AMD en Intel hebben ingebouwde instructies op laag niveau die het rekenwerk versnellen dat nodig is voor diepe neurale netwerken. Deze extra functionaliteit helpt vooral bij ‘inferentietaken’, dat wil zeggen bij het gebruik van AI-modellen die al elders zijn ontwikkeld.

Om de AI-modellen überhaupt te trainen zijn nog steeds grote GPU-achtige versnellers nodig.

Het is mogelijk om steeds meer gespecialiseerde versnellers te creëren voor specifieke machine learning-algoritmen. Onlangs heeft een bedrijf genaamd Groq bijvoorbeeld een “taalverwerkingseenheid” (LPU) speciaal ontworpen voor het uitvoeren van grote taalmodellen in de trant van ChatGPT.

Het creëren van deze gespecialiseerde processors vergt echter aanzienlijke technische middelen. De geschiedenis laat zien dat het gebruik en de populariteit van een bepaald machine learning-algoritme de neiging heeft om te pieken en vervolgens af te nemen, waardoor dure gespecialiseerde hardware snel verouderd kan raken.

Voor de gemiddelde consument is dat echter waarschijnlijk geen probleem. De GPU's en andere chips in de producten die u gebruikt, zullen waarschijnlijk stilletjes sneller worden.

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.

Krediet van het beeld: Nvidia

spot_img

Laatste intelligentie

spot_img