Zephyrnet-logo

Groene datacenters die worden gezien als hulp bij het beheren van AI-stroomvereisten

Datum:

Het nieuwe Huawei North China Cloud Data Center in Ulanqab is ontworpen als een modelgroen datacenter. (Foto met dank aan Huawei)

Door AI Trends Staff

Huawei heeft een datacenter in de cloud gebouwd in Ulanqab; het wil een modelgroen datacenter zijn.

Het Chinese multinationale technologiebedrijf publiceerde het account in een gesponsorde post in Het register, waarin ze haar inspanningen beschrijft om het nieuwe datacenter te bouwen in Ulanqab, een stad in Mongolië.

Effectiviteit van energieverbruik (PUE), wordt gezien als een maatstaf voor "groenheid" of energie-efficiëntie, PUE werd in 2006 geïntroduceerd door de Green Grid, een non-profitorganisatie van IT-professionals; het is de meest gebruikte maatstaf geworden voor het rapporteren van de energie-efficiëntie van datacenters. Hoe hoger de waarde, hoe minder de efficiëntie.

Huawei meldt dat zijn datacenter in de cloud in Ulanqab een jaarlijkse PUE behaalt van slechts 1.15, vergeleken met een gemiddelde PUE van 1.58 in 2020, volgens de Uptime Instituut. "De winst op het gebied van data-efficiëntie is afgevlakt", aldus de kop op een lijndiagram met de winst in energie-efficiëntie van 2007 tot 2013, en sindsdien een vrijwel vlakke lijn.

Huawei heeft een thermisch beheersysteem ontwikkeld dat het iCooling noemt, dat vertrouwt op machine learning en deep learning om historische gegevens te analyseren en sleutelfactoren te identificeren die van invloed zijn op het energieverbruik. De ideale parameters worden gegenereerd door een optimalisatie-algoritme en verzonden naar verschillende besturingssystemen.

Het bedrijf meldde dat zijn clouddatacenter in de stad Langfang in Noord-China een PUE-verbetering van 8% kende na de implementatie van iCooling. Een ander datacenter van China Mobile in de regio Ningxia in het noorden van centraal China, de introductie van iCooling resulteerde in een vermindering van het totale energieverbruik met 3.2%, een besparing van meer dan 400,000 kWh elektriciteit per jaar. Huawei verwacht dat de voordelen in de loop van de tijd zullen verbeteren, naarmate de belasting van het datacenter toeneemt en het AI-systeem leert. De verwachte vermindering van zes miljoen kWh elektriciteit die jaarlijks wordt bespaard, zou gelijk staan ​​aan een vermindering van ongeveer drie miljoen kilogram COXNUMX-uitstoot.

Huawei gebruikt ook AI in zijn aanbod van fouttolerantie en netwerkbeheer. De iPower intelligente voedings- en distributietechnologie verzamelt informatie van de systemen die het gebruikt om dreigende apparaat- en componentstoringen te voorspellen. Herstel kan plaatsvinden met snelheden van minder dan een seconde, wat de algehele betrouwbaarheid verbetert. iPower kan ook worden gebruikt om de gezondheid en levensduur van de batterij te bewaken, waardoor effectief voorspellend onderhoud mogelijk is.

Huawei's iManager datacenterinfrastructuurbeheersysteem maakt gebruik van intelligente hardware en IoT-sensoren om stroom, koeling en ruimte te beheren om het gebruik te optimaliseren met AI die de toewijzing en werking van activa beheert. iManager kan het gebruik van resources met naar schatting 20% ​​verhogen. iManager kan ook centraal netwerkbeheer ondersteunen voor meerdere datacenters op verschillende locaties.

Aandacht voor manieren om het stroomverbruik te beheren

IT-managers die het groene datacenter nastreven, zijn ook erg afgestemd op het stroomverbruik; AI verbruikt veel stroom. Uit een studie van de Universiteit van Massachusetts in Amherst vorig jaar bleek dat het trainen van één groot AI-model voor natuurlijke taalverwerking, de BERT-natuurlijke taalverwerkingstechniek van Google, voldoende elektriciteit gebruikte om een ​​gelijkwaardige hoeveelheid CO te produceren2 als een transatlantische heen-en terugvlucht voor één persoon, volgens een recent verslag in EE Times.

Die schatting was voor één model dat één keer was getraind. In werkelijkheid worden modellen tijdens de ontwikkeling meestal vele malen afgestemd en bijgeschoold. Voeg een techniek toe zoals AutoML om modellen af ​​te stemmen, en het totaal kan naar dezelfde hoeveelheid CO springen2 als de levenslange uitstoot van vijf Amerikaanse auto's. Bedrijven wenden zich tot AI-accelerators om te zien of ze kunnen helpen.

David Turek, voormalig vicepresident technische informatica, IBM Cognitive Systems

De hoeveelheid energie die wordt gebruikt in AI-berekeningen is afhankelijk van de systeemarchitectuur en de context van de applicatie. "De hiërarchie van rekenkracht, van modeltraining tot modelimplementatie, heeft een directe impact op de infrastructuur, en dat heeft een directe impact op de hoeveelheid verbruikte energie", aldus David Turek, voormalig VP van technical computing bij IBM Cognitive Systems (gepensioneerd ). Hoe het team het model traint, heeft invloed op het energieverbruik.

Een federatieve modeltechniek kan worden gebruikt om incrementele modelupdates aan de rand af te handelen in plaats van in het datacenter. Het energieprofiel wordt bepaald door het verwerkingstype dat aan de rand wordt ingezet. De infrastructuur van het datacenter staat grotendeels vast, het aanpassen van de workflow is de beste manier om energie te besparen, stelde Turek voor.

"Het gaat om intelligentie die wordt toegepast op de workflows die u kunt gebruiken om optimale manieren te orkestreren om de energie die voor u en uw vaste systeem beschikbaar is, in te zetten", aldus Turek. Operators kunnen dan planningsopdrachten maken op hun hardware-infrastructuur door rekening te houden met energiebudgetten en energieverbruik.

Supermicro Data Center Survey vindt energiebeheer niet de prioriteit

Datacenters die geen gebruik maken van de huidige best practices, laten geld op tafel liggen, stelt een recent onderzoek van Supermicro, de leverancier van servers en opslag voor IT-datacenters. De datacenters van tegenwoordig hoeven bijvoorbeeld niet te worden gekoeld tot tussen 73 en 77 graden Fahrenheit (23 tot 25 graden Celsius) om de prestaties en betrouwbaarheid te behouden.

Michael McNerney, VP marketing en netwerkbeveiliging, Supermicro

"Het is voor veel mensen die al lange tijd datacenters runnen niet intuïtief dat de systemen die we vandaag bouwen heter kunnen werken dan traditionele datacenteromgevingen", aldus Michael McNerney, VP marketing en netwerkbeveiliging bij Supermicro.

Supermicro publiceerde zijn tweede jaarlijkse Data Center the Environment Report voor 2019, gebaseerd op reacties van 1,362 datacenter-operators en IT-professionals uit een dwarsdoorsnede van geografische gebieden en industrieën.

Uit het onderzoek bleek dat de gemiddelde stroomdichtheid per rack 15 kW was, terwijl de serverinlaattemperatuur 74.3 graden Fahrenheit (23.5 ° C) was en servers elke 4.1 jaar werden vernieuwd. Datacenters met sterk geoptimaliseerde groene ontwerpen, beheerd door 12 procent van de respondenten, hadden een vermogensdichtheid van meer dan 25 kW per rack, een gemiddelde inlaattemperatuur van 79.7 ° C (26.5 graden Fahrenheit), terwijl servers om de twee tot drie jaar werden verwisseld.

Datacenters bleken geen hoge prioriteit te geven aan het beheersen van de energiekosten. “We hebben gezien dat het budget voor bedrijfsfaciliteiten los staat van de aanschafkosten van hardware en de kapitaalverwervingskosten van systemen, die los staan ​​van de personeelskosten. Ze zijn niet allemaal samen geoptimaliseerd ”, aldus McNerney.

Het gebruik van grafische verwerkingseenheid (GPU) hardware voor AI-verwerking vormt een afweging tussen snelheid en hogere kosten per verwerkingstijdeenheid. Elektriciteitskosten maken tot 25% uit van de bedrijfskosten van datacenters, stelt Paresh Kharya, directeur productbeheer voor accelerated computing voor NVIDIA, de GPU-leverancier.

Hij gebruikt de term "gemiddelde tijd tot oplossing" als een manier om na te denken over de afweging. Het trainen van het ResNet-50-model voor beeldherkenning op een server met alleen CPU kan bijvoorbeeld tot drie weken duren, terwijl een server die is uitgerust met een Nvidia V100 GPU dit in minder dan een dag kan doen, zei hij.

“De individuele server met onze GPU erop zou meer energie verbruiken [dan het CPU-equivalent], maar het zou een aanzienlijk snellere oplossing bieden. Dus het totale energieverbruik [voor AI-workloads] zou met een factor 20 tot 25 dalen met behulp van GPU-accelerators, ”stelde hij voor.

Lees de bronartikelen en informatie in Het register, bij de Uptime Instituut en in EE Times.

Bron: https://www.aitrends.com/infrastructure-for-ai/green-data-centers-seen-as-helping-manage-ai-power-demands/

spot_img

Laatste intelligentie

spot_img