Zephyrnet-logo

Konvergens av AI, 5G og Augmented Reality utgjør nye sikkerhetsrisikoer 

Dato:

Av John P. Desmond, AI Trender editor  

Omtrent 500 forretnings- og sikkerhetseksperter på C-nivå fra selskaper med over 5 milliarder dollar i inntekter i flere bransjer uttrykte bekymring i en fersk undersøkelse fra Accenture om de potensielle sikkerhetssårbarhetene som ligger i jakten på AI, 5G og utvidet virkelighet-teknologier på samme tid .  

Claudio Ordóñez, cybersikkerhetsleder for Accenture i Chile

For å trene AI-modeller på riktig måte, for eksempel, må selskapet beskytte dataene som trengs for å trene AI-en og miljøet der den er opprettet. Når modellen brukes, må dataene i bevegelse beskyttes. Data kan ikke samles inn på ett sted, verken av tekniske eller sikkerhetsmessige årsaker, eller for å beskytte åndsverk. "Derfor tvinger det bedrifter til å sette inn sikker læring slik at de ulike partene kan samarbeide, sa Claudio Ordóñez, Leder for cybersikkerhet for Accenture i Chile, i en nylig konto i Markedsundersøkelser Biz.  

Bedrifter må utvide sikker programvareutviklingspraksis, kjent som DevSecOps, for å beskytte AI gjennom livssyklusen. "Dessverre er det ingen sølvkule å forsvare mot AI-manipulasjoner, så det vil være nødvendig å bruke lagdelte evner for å redusere risiko i forretningsprosesser drevet av kunstig intelligens," sa han. Tiltak inkluderer vanlige sikkerhetsfunksjoner og kontroller som sanering av inngangsdata, herding av applikasjonen og oppsett av sikkerhetsanalyse. I tillegg må det tas skritt for slangedataintegritet, nøyaktighetskontroll, sabotasjedeteksjon, og tidlig responsevne.    

Risiko for modellutvinning og angrep på personvern  

Maskinlæringsmodeller har vist noen unike sikkerhets- og personvernproblemer. "Hvis en modell er utsatt for eksterne dataleverandører, kan du risikere modellutvinning," Ordóñez advart. I så fall hackeren kan være i stand til omvendt konstruer modellen og generer en surrogatmodell som reproduserer funksjonen til den originale modellen, men med endrede resultater. "Dette har åpenbare implikasjoner for konfidensialiteten til intellektuell eiendom," sa han.  

For å beskytte mot modellutvinning og angrep på personvern, er kontroller nødvendig. Noen er enkle å bruke, for eksempel hastighetsbegrensninger, men noen modeller kan kreve mer sofistikert sikkerhet, for eksempel unormal bruksanalyse. Hvis AI-modellen leveres som en tjeneste, må bedrifter vurdere sikkerhetskontroller på plass i skytjenestemiljøet. "Åpen kildekode eller eksternt genererte data og modeller gir angrepsvektorer for organisasjoner," sa Ordóñez, fordi angripere kan være i stand til å sette inn manipulerte data og omgå intern sikkerhet.   

På spørsmål om hvordan organisasjonene deres planlegger å skape den tekniske kunnskapen som trengs for å støtte fremvoksende teknologier, sa de fleste respondentene i Accenture-undersøkelsen at de ville trene eksisterende ansatte (77%), vil samarbeide eller samarbeide med organisasjoner som har erfaringen (73%), ansette nytt talent (73%), og anskaffe nye virksomheter eller startups (49%).  

Tiden det tar å trene fagfolk i disse ferdighetene blir undervurdert, ifølge Ordóñez. I tillegg antar "Respondentene at det vil være et stort talent tilgjengelig fra AI, 5G, kvantedatabehandling og utvidet virkelighet, men realiteten er at det er og vil være mangel på disse ferdighetene på markedet," sa han. "Å forene problemet, finne sikkerhetstalenter med disse nye teknologiske ferdighetene vil være enda vanskeligere," sa han.  

Funksjoner i 5G-teknologi reiser nye sikkerhetsproblemer, inkludert virtualisering som utvider angrepsoverflaten og "hypernøyaktig" sporing av angrepsplasseringer, noe som øker personvernbekymringer for brukere. "Som veksten av skytjenester, har 5G potensial til å skape skyggenettverk som opererer utenfor kunnskapen og ledelsen til selskapet," sa Ordóñez.  

"Enhetsregistrering må inkludere autentisering for å håndtere virksomhetens angrepsoverflate. Uten det kan ikke integriteten til meldingene og identiteten til brukeren sikres, sa han. Bedrifter vil trenge engasjementet fra Chief Information Security Officer (CISO) for å være effektive. "Suksess krever betydelig CISO-engasjement og ekspertise innen cyberrisikostyring fra begynnelsen og gjennom den daglige innovasjonen, inkludert å ha riktig tankesett, atferd og kultur for å få det til."  

Augmented reality introduserer også en rekke nye sikkerhetsrisikoer, med problemer med sikkerhet rundt plassering, tillitsgjenkjenning, innholdet i bilder og omgivende lyd, og "innholdsmaskering." I forhold til dette, "Kommandoen "åpne denne ventilen" kan rettes til feil objekt og generere en katastrofal aktivering, foreslo Ordóñez.  

Teknikker for å beskytte personvernet i 5G-tiden 

Jiani Zhang, President, Alliance and Industrial Solution Unit, Persistent Systems

Personvern er et av tiårets viktigste spørsmål, ettersom AI utvides og flere regulatoriske rammer blir på plass samtidig. Flere databehandlingsteknikker kan hjelpe organisasjoner med å holde seg i samsvar og være sikre, foreslo Jiani Zhang, president for Alliance and Industrial Solution Unit hos Persistent Systems, hvor hun jobber tett med IBM og Red Hat for å utvikle løsninger for kunder, som nylig ble rapportert i Bedriftsprosjektet. 

Federert læring. I et felt med sensitive brukerdata som helsetjenester, var den tradisjonelle visdommen fra det siste tiåret å "utløse" data når det var mulig. Imidlertid har aggregeringen av data som er nødvendig for å trene og distribuere maskinlæringsalgoritmer skapt "alvorlige personvern- og sikkerhetsproblemer", spesielt når data deles innen organisasjoner. 

I en forent læringsmodell forblir data sikret i sitt miljø. Lokale ML-modeller er trent på private datasett, og modelloppdateringer flyter mellom datasettene som skal aggregeres sentralt. "Dataene trenger aldri å forlate det lokale miljøet," sa Zhang.   

"På denne måten forblir dataene sikre, samtidig som de gir organisasjoner 'visdommen til mengden',uttalte hun. "Federert læring reduserer risikoen for et enkelt angrep eller lekkasje som kompromitterer personvernet til alle dataene, fordi i stedet for å sitte i et enkelt depot, er dataene spredt ut blant mange."  

Forklarlig AI (XAI). Mange AI/ML-modeller, spesielt nevrale nettverk, er svarte bokser hvis innganger og operasjoner ikke er synlige for interesserte parter. Et nytt forskningsområde er forklarbarhet, som bruker teknikker for å bidra til åpenhet, for eksempel beslutningstrær som representerer et komplekst system, for å gjøre det mer ansvarlig.   

"På sensitive områder som helsevesen, bank, finansielle tjenester og forsikring, kan vi ikke stole blindt på AI-beslutninger,» sa Zhang. En forbruker som for eksempel får avslag på et banklån, har rett til å vite hvorfor. "XAI bør være et stort fokusområde for organisasjoner som utvikler AI-systemer i fremtiden," foreslo hun. 

AI Ops/ML Ops. Tanken er å akselerere hele ML-modellens livssyklus ved å standardisere operasjoner, måle ytelse og automatisk utbedre problemer. AIOps kan brukes på følgende tre lag: 

  • infrastruktur: Automatiserte verktøy lar organisasjoner skalere sin infrastruktur og holde tritt med kapasitetskravene. Zhang nevnte en ny undergruppe av DevOps kalt GitOps, som bruker DevOps-prinsipper på skybaserte mikrotjenester som kjører i containere.  
  • Application Performance Management (APM): Organisasjoner bruker APM for å administrere nedetid og maksimere ytelsen. APM-løsninger inkluderer en AIOps-tilnærming, som bruker AI og ML for å proaktivt identifisere problemer i stedet for å ta en reaktiv tilnærming.  
  • IT-tjenesteadministrasjon (ITSM): IT-tjenester spenner over maskinvare, programvare og dataressurser i massive systemer. ITSM bruker AIOps for å automatisere billettarbeidsflyter, administrere og analysere hendelser og autorisere og overvåke dokumentasjon blant sine ansvarsområder. 

Les kildeartiklene i  Markedsundersøkelser Biz, i den relaterte rapporten fra Accenture og in Bedriftsprosjektet. 

Kasse PrimeXBT
Handle med de offisielle CFD-partnerne i AC Milan
Den enkleste måten å bytte krypto på.
Kilde: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Siste etterretning

spot_img