Zephyrnet-logo

AI-inferentie voelt de behoefte - de behoefte aan snelheid

Datum:

In opdracht Snelheid en prestaties spelen vaak een buitensporige rol bij het bepalen van de resultaten van veel wedstrijden. De beroemde Schneider Trophy-races van het begin van de 20e eeuw bieden een klassiek voorbeeld, aangezien meerdere landen de grenzen van snelheid verlegden in prestaties van luchtoverheersing.

Italië en de Verenigde Staten produceerden sterke vertoningen, maar het was die van Groot-Brittannië Supermarijn S.6B watervliegtuig dat de overwinning behaalde in de laatste race en een toenmalig wereldsnelheidsrecord vestigde van meer dan 400 mijl per uur. Schilderachtig volgens de huidige normen, met straaljagers boven Mach 3, maar een wonder voor zijn tijd.

Net als de beroemde Schneider Trophy-races, is de strijd om AI-suprematie een wedstrijd waarbij hoge snelheid en prestaties van cruciaal belang zijn.

Dit is met name opvallend voor generatieve AI, de opkomende klasse van technologieën die grote taalmodellen gebruiken om alles te verwerken, van tekst tot audio en afbeeldingen. Net als zijn AI-voorgangers, vertrouwt generatieve AI op hoogwaardige trainingsgegevens en de volgende fase, bekend als inferentie.

Waarom gevolgtrekkingen van belang zijn voor voorspellingen

AI-inferentie werkt als volgt: nadat een machine learning-model is getraind om de patronen en relaties in een grote hoeveelheid gelabelde gegevens te herkennen, neemt het model nieuwe gegevens als invoer en past het de geleerde kennis uit de trainingsfase toe om voorspellingen te genereren of andere taken uit te voeren . Afhankelijk van het model (of modellen) kunnen de invoergegevens tekst, afbeeldingen of zelfs numerieke waarden bevatten.

Terwijl invoergegevens door het rekennetwerk van het model stromen, past het model wiskundige bewerkingen toe. De uiteindelijke uitvoer van het model vertegenwoordigt de gevolgtrekking of voorspelling op basis van de invoer.

Uiteindelijk is er een combinatie nodig van het getrainde model en nieuwe invoer die bijna in real-time werkt om snelle beslissingen of voorspellingen te maken voor kritieke taken zoals natuurlijke taalverwerking, beeldherkenning of aanbevelingsengines.

Overweeg aanbevelingsengines. Terwijl mensen inhoud consumeren op e-commerce- of streamingplatforms, volgen de AI-modellen de interacties en 'leren' ze wat mensen het liefst kopen of bekijken. De zoekmachines gebruiken deze informatie om inhoud aan te bevelen op basis van de voorkeursgeschiedenis.

Met behulp van generatieve AI-modellen kunnen bedrijven de aankoopgeschiedenis, het surfgedrag en andere signalen analyseren personaliseren van berichten, aanbiedingen en promoties aan individuele klanten. Bijna een derde van de uitgaande marketingberichten die bedrijven versturen, zal volgens AI worden gevoed Gartner.

Om ervoor te zorgen dat deze engines relevante aanbevelingen opleveren, is verwerkingssnelheid essentieel. Dienovereenkomstig maken organisaties gebruik van verschillende optimalisaties en hardwareversnelling om het inferentieproces te vergemakkelijken.

Waarom generatieve AI snelle hardware nodig heeft

Generatieve AI is een computerhongerig beest. Omdat het traint op enorme datasets om patronen te leren, vereist het ook aanzienlijke verwerkingsvuurkracht en opslag gevalideerde ontwerpblauwdrukken om configuraties en implementaties op de juiste maat te helpen.

Opkomende serverklassen zijn uitgerust met meerdere processors of GPU's om moderne parallelle verwerkingstechnieken mogelijk te maken, waarbij werklasten worden verdeeld over meerdere kernen of apparaten om training en inferentietaken te versnellen.

En naarmate organisaties meer parameters toevoegen – denk aan miljoenen of mogelijk miljarden configuratievariabelen – moeten ze vaak meer systemen toevoegen om de invoergegevens te verwerken en berekeningen uit te voeren. Om deze grotere datasets te accommoderen, verbinden organisaties vaak meerdere servers met elkaar, waardoor een schaalbare infrastructuur ontstaat. Dit helpt ervoor te zorgen dat AI-training en -inferentie de prestaties kunnen handhaven en tegelijkertijd aan de groeiende vereisten kunnen voldoen.

Uiteindelijk zijn krachtige servers en betrouwbare opslag van cruciaal belang omdat ze snellere en nauwkeurigere training mogelijk maken, evenals real-time of bijna real-time gevolgtrekkingen. Dergelijke oplossingen kunnen organisaties helpen het potentieel van generatieve AI voor verschillende toepassingen aan te boren.

Snelle algoritmen zullen de dag winnen

Het lijdt geen twijfel dat de luchtraces van de Schneider Trophy van de vorige eeuw hun stempel hebben gedrukt op de geschiedenis van de luchtvaart. En net zoals die multinationale races onderstrepen hoe competitie verrassende vooruitgang op het gebied van snelheid en techniek kan aanwakkeren, benadrukt de AI-wapenwedloop het belang van technologische innovatie die de hedendaagse bedrijven aanstuurt.

Organisaties die meeliften op deze nieuwe golf van AI zullen een concurrentievoordeel realiseren als zij machtig ontwikkelaars met de tools naar bouw slimmere toepassingen die materiële bedrijfsresultaten opleveren.

Als IT-leider moet u uw afdeling bewapenen met de best presterende inferentiemodellen samen met de hardware om ze van brandstof te voorzien. Moge de beste generatieve AI-algoritme(n) en modellen winnen.

Lees verder over Dell Technologies APEX voedt dit nieuwe tijdperk van AI-inferentie.

In opdracht van Dell Technologies

spot_img

Laatste intelligentie

spot_img