Zephyrnet-logo

The Promise of Edge AI og tilnærminger for effektiv adopsjon – KDnuggets

Dato:

The Promise of Edge AI og tilnærminger for effektiv adopsjon
Bilde av redaktør
 

Det nåværende teknologiske landskapet opplever et sentralt skifte mot edge computing, ansporet av raske fremskritt innen generativ AI (GenAI) og tradisjonelle AI-arbeidsbelastninger. Disse AI-arbeidsbelastningene er historisk avhengige av cloud computing, og møter nå grensene for skybasert AI, inkludert bekymringer om datasikkerhet, suverenitet og nettverkstilkobling.

Arbeider rundt disse begrensningene til skybasert AI, søker organisasjoner å omfavne edge computing. Edge computings evne til å muliggjøre sanntidsanalyse og svar på det punktet der data opprettes og konsumeres, er grunnen til at organisasjoner ser det som avgjørende for AI-innovasjon og forretningsvekst.

Med løftet om raskere prosessering med null-til-minimal latens, kan edge AI dramatisk transformere nye applikasjoner. Mens databehandlingsevnene for edge-enheter blir stadig bedre, er det fortsatt begrensninger som kan gjøre implementering av svært nøyaktige AI-modeller vanskelig. Teknologier og tilnærminger som modellkvantisering, imitasjonslæring, distribuert inferencing og distribuert dataadministrasjon kan bidra til å fjerne barrierene for mer effektive og kostnadseffektive edge-AI-distribusjoner slik at organisasjoner kan utnytte sitt sanne potensial. 

AI-slutninger i skyen påvirkes ofte av latensproblemer, noe som forårsaker forsinkelser i dataflytting mellom enheter og skymiljøer. Organisasjoner innser kostnadene ved å flytte data på tvers av regioner, inn i skyen og frem og tilbake fra skyen til kanten. Det kan hindre applikasjoner som krever ekstremt raske svar i sanntid, for eksempel økonomiske transaksjoner eller industrielle sikkerhetssystemer. I tillegg, når organisasjoner må kjøre AI-drevne applikasjoner på eksterne steder der nettverkstilkoblingen er upålitelig, er ikke skyen alltid innen rekkevidde. 

Begrensningene til en «bare-sky» AI-strategi blir stadig tydeligere, spesielt for neste generasjons AI-drevne applikasjoner som krever raske svar i sanntid. Problemer som nettverksforsinkelse kan bremse innsikt og resonnement som kan leveres til applikasjonen i skyen, noe som fører til forsinkelser og økte kostnader forbundet med dataoverføring mellom sky- og kantmiljøene. Dette er spesielt problematisk for sanntidsapplikasjoner, spesielt i avsidesliggende områder med intermitterende nettverkstilkobling. Ettersom AI står sentralt i beslutningstaking og resonnement, kan fysikken til å flytte data rundt være ekstremt kostbar med en negativ innvirkning på forretningsresultater. 

Gartner anslår at mer enn 55 % av all dataanalyse av dype nevrale nettverk vil finne sted ved fangstpunktet i et kantsystem innen 2025, opp fra mindre enn 10 % i 2021. Edge computing bidrar til å lindre latens, skalerbarhet, datasikkerhet, tilkobling og flere utfordringer, omforme måten databehandling håndteres på, og i sin tur akselerere AI-adopsjon. Å utvikle applikasjoner med en offline-first-tilnærming vil være avgjørende for suksessen til smidige applikasjoner.

Med en effektiv kantstrategi kan organisasjoner få mer verdi fra applikasjonene sine og ta forretningsbeslutninger raskere.

Etter hvert som AI-modeller blir stadig mer sofistikerte og applikasjonsarkitekturer blir mer komplekse, blir utfordringen med å distribuere disse modellene på avanserte enheter med beregningsmessige begrensninger mer uttalt. Fremskritt innen teknologi og utviklende metoder baner imidlertid vei for effektiv integrering av kraftige AI-modeller innenfor edge computing-rammeverket som spenner fra: 

Modellkomprimering og kvantisering

Teknikker som modellbeskjæring og kvantisering er avgjørende for å redusere størrelsen på AI-modeller uten å gå betydelig på bekostning av nøyaktigheten. Modellbeskjæring eliminerer overflødig eller ikke-kritisk informasjon fra modellen, mens kvantisering reduserer presisjonen av tallene som brukes i modellens parametere, noe som gjør modellene lettere og raskere å kjøre på enheter med begrensede ressurser. Modellkvantisering er en teknikk som involverer komprimering av store AI-modeller for å forbedre portabiliteten og redusere modellstørrelsen, noe som gjør modellene mer lette og egnet for edge-distribusjoner. Ved å bruke finjusteringsteknikker, inkludert Generalized Post-Training Quantization (GPTQ), Low-Rank Adaptation (LoRA) og Quantized LoRA (QLoRA), senker modellkvantisering den numeriske presisjonen til modellparametere, noe som gjør modellene mer effektive og tilgjengelige for kantenheter som f.eks. nettbrett, edge-gateways og mobiltelefoner. 

Edge-spesifikke AI-rammer

Utviklingen av AI-rammeverk og -biblioteker spesielt designet for edge computing kan forenkle prosessen med å distribuere edge AI-arbeidsbelastninger. Disse rammeverkene er optimalisert for beregningsbegrensningene til kantmaskinvare og støtter effektiv modellutførelse med minimal ytelsesoverhead.

Databaser med distribuert databehandling

Med funksjoner som vektorsøk og sanntidsanalyse hjelper du med å møte kantens operasjonelle krav og støtter lokal databehandling, håndtering av ulike datatyper, som lyd, bilder og sensordata. Dette er spesielt viktig i sanntidsapplikasjoner som programvare for autonome kjøretøy, hvor forskjellige datatyper hele tiden samles inn og må analyseres i sanntid.

Distribuert inferencing

Som plasserer modeller eller arbeidsbelastninger på tvers av flere edge-enheter med lokale dataeksempler uten faktisk datautveksling, kan redusere potensielle overholdelses- og datapersonvernproblemer. For applikasjoner, som smarte byer og industriell IoT, som involverer mange edge- og IoT-enheter, er distribusjon av slutninger avgjørende å ta hensyn til. 

Mens AI hovedsakelig har blitt behandlet i skyen, vil det å finne en balanse med edge være avgjørende for å akselerere AI-initiativer. De fleste, om ikke alle, bransjer har anerkjent AI og GenAI som et konkurransefortrinn, og derfor blir det stadig viktigere å samle, analysere og raskt få innsikt på kanten. Etter hvert som organisasjoner utvikler AI-bruken sin, vil implementering av modellkvantisering, multimodale evner, dataplattformer og andre kantstrategier bidra til å oppnå meningsfulle forretningsresultater i sanntid.
 
 

Rahul Pradhan er VP of Product and Strategy hos Couchbase (NASDAQ: BASE), leverandør av en ledende moderne database for bedriftsapplikasjoner som 30 % av Fortune 100 er avhengig av. Rahul har over 20 års erfaring med å lede og administrere både ingeniør- og produktteam med fokus på databaser, lagring, nettverk og sikkerhetsteknologier i skyen. Før Couchbase ledet han Product Management and Business Strategy-teamet for Dell EMCs Emerging Technologies and Midrange Storage Division for å bringe alle flash NVMe-, Cloud- og SDS-produkter til markedet.

spot_img

Siste etterretning

spot_img