Zephyrnet-logo

AI-verwerking zou ‘evenveel elektriciteit kunnen verbruiken als Ierland’

Datum:

De recente piek in de belangstelling voor AI dankzij grote taalmodellen (LLM's) en generatieve AI stimuleert de adoptie van de technologie door een grote verscheidenheid aan toepassingen, wat leidt tot zorgen dat de verwerking die hiervoor nodig is een stijging van het elektriciteitsverbruik in datacenters zal veroorzaken.

Deze zorgen worden geuit in a papier door Alex de Vries, onderzoeker aan de Vrije Universiteit Amsterdam.

In het artikel merkt De Vries op dat mensen zich bij het onderzoek naar de duurzaamheid van AI hebben gericht op de trainingsfase van AI-modellen, omdat dit over het algemeen wordt beschouwd als de meest hulpbronnenintensieve en daarom het meest energieverslindende.

Er wordt echter relatief weinig aandacht besteed aan de inferentiefase, zo betoogt hij, maar toch zijn er aanwijzingen dat inferenties – het gebruik van het getrainde model – aanzienlijk kunnen bijdragen aan de levenscycluskosten van een AI-model.

Ter ondersteuning hiervan beweert de krant dat OpenAI voor de ondersteuning van ChatGPT 3,617 servers nodig had op basis van het Nvidia HGX A100-platform, uitgerust met in totaal 28,936 GPU's, wat een energievraag van 564 MWh per dag impliceert. Dit is vergelijkbaar met de geschatte 1,287 MWh die wordt gebruikt voor de trainingsfase van het GPT-3-model.

Internetgigant Google wel de invoering AI-aangedreven zoekmogelijkheden in de zoekmachine, na de stap van Microsoft om dit toe te voegen door chatbots aangedreven AI-zoekopdrachten is eerder dit jaar opgenomen in de Bing-zoekmachine. Het artikel verwijst naar een citaat van de voorzitter van Alphabet dat dit “waarschijnlijk 10 keer meer zou kosten dan een standaard zoekopdracht op trefwoorden”, wat duidt op een elektriciteitsverbruik van ongeveer 3 Wh per stuk.

Als elke Google-zoekopdracht een LLM-interactie zou worden, zou de elektriciteit die nodig is om dit aan te drijven evenveel kunnen bedragen als die van een land als Ierland, namelijk 29.3 TWh per jaar, beweert de krant. Dit is gebaseerd op het totale elektriciteitsverbruik van Google voor 2021 van 18.3 TWh, waarvan AI destijds 10 tot 15 procent voor zijn rekening zou nemen.

Maar het artikel geeft toe dat dit een worst case scenario is, omdat het uitgaat van volledige adoptie van AI met de huidige hardware en software, wat “onwaarschijnlijk is dat dit snel zal gebeuren”, niet in de laatste plaats omdat Nvidia niet over de productiecapaciteit beschikt om de geschatte 512,821 te leveren. Er zouden A100 HGX-servers nodig zijn, en de aanschaf ervan zou Google $100 miljard kosten.

Voor een meer realistische projectie kijkt het artikel naar het verwachte aantal op Nvidia gebaseerde AI-servers dat waarschijnlijk zal worden overgenomen, aangezien het bedrijf momenteel een geschat marktaandeel van 95 procent heeft.

De analist schat dat Nvidia in 100,000 2023 van zijn AI-serverplatforms zal leveren, terwijl de krant berekent dat de servers die hierop zijn gebaseerd een gecombineerde stroomvraag zouden hebben van 650 tot 1,020 MW, en jaarlijks zo'n 5.7 – 8.9 TWh aan elektriciteit zouden verbruiken. Vergeleken met een historisch geschat jaarlijks elektriciteitsverbruik door datacenters van 205 TWh, “is dit vrijwel te verwaarlozen”, stelt De Vries.

Vergeet de Jevons-paradox niet

Maar voordat iemand een zucht van verlichting slaakt: Nvidia zou in 1.5 mogelijk 2027 miljoen eenheden van zijn AI-serverplatforms kunnen verschepen, waarbij 85.4 tot 134 TWh aan elektriciteit wordt verbruikt. In dit stadium zouden deze servers een aanzienlijke bijdrage kunnen leveren aan het wereldwijde elektriciteitsverbruik van datacenters, stelt de krant. Hierbij wordt ervan uitgegaan dat de Nvidia-producten in kwestie hetzelfde verbruik zullen hebben als de huidige kit.

Het artikel gaat ook in op het effect van de Jevons-paradox als innovaties in modelarchitecturen en algoritmen de hoeveelheid rekenkracht die nodig is om complexe AI-modellen te verwerken, zouden moeten verminderen. De Jevons-paradox doet zich voor wanneer verhogingen van de efficiëntie een grotere vraag stimuleren, wat in dit geval betekent dat verbeteringen in de modelefficiëntie ervoor kunnen zorgen dat afzonderlijke GPU's op consumentenniveau AI-modellen kunnen trainen.

Hierdoor zou de groei van het AI-gerelateerde elektriciteitsverbruik niet alleen afkomstig zijn van nieuwe krachtige GPU’s zoals Nvidia’s A100, maar ook van meer generieke GPU’s, zo stelt het artikel, waardoor elke toename in efficiëntie van de modellen teniet wordt gedaan.

Zoals het artikel concludeert, is het toekomstige elektriciteitsverbruik van AI-verwerking moeilijk te voorspellen. Hoewel het inbrengen van AI in toepassingen zoals Google Search hun energieverbruik aanzienlijk kan verhogen, zullen verschillende hulpbronnenfactoren waarschijnlijk de groei van het mondiale AI-gerelateerde elektriciteitsverbruik op de korte termijn beperken.

Het onderzoek van De Vries waarschuwt echter ook dat het te optimistisch is om te verwachten dat verbeteringen in de efficiëntie alle veranderingen op de lange termijn in het AI-gerelateerde elektriciteitsverbruik volledig zullen compenseren, en zegt dat de wijsheid van het gebruik van AI in alles in twijfel moet worden getrokken, omdat het Het is “onwaarschijnlijk dat alle toepassingen zullen profiteren van AI of dat de voordelen altijd groter zullen zijn dan de kosten.”

Gezien de huidige ongepaste haast om overal AI aan toe te voegen, lijkt dit een zinloze verwachting. ®

spot_img

VC Café

VC Café

Laatste intelligentie

spot_img