Zephyrnet-logo

Convergentie van AI, 5G en augmented reality brengt nieuwe beveiligingsrisico's met zich mee 

Datum:

Door John P. Desmond, AI Trends editor  

Ongeveer 500 business- en beveiligingsexperts op C-niveau van bedrijven met meer dan $ 5 miljard aan inkomsten in meerdere bedrijfstakken hebben in een recente enquête van Accenture hun bezorgdheid geuit over de potentiële beveiligingsproblemen die worden veroorzaakt door het streven naar AI-, 5G- en augmented reality-technologieën tegelijk. .  

Claudio Ordóñez, Cybersecurity Leader voor Accenture in Chili

Om AI-modellen goed te trainen, moet het bedrijf bijvoorbeeld de gegevens beschermen die nodig zijn om de AI te trainen en de omgeving waarin deze is gemaakt. Wanneer het model wordt gebruikt, moeten de gegevens in beweging worden beschermd. Gegevens kunnen niet op één plaats worden verzameld, noch om technische of veiligheidsredenen, noch ter bescherming van intellectueel eigendom. ​Daarom dwingt het bedrijven om veilig leren in te voegen, zodat de verschillende partijen kunnen samenwerken ”, aldus Claudio Ordóñez, Cybersecurity Leader voor Accenture in Chili, in een recent verslag in Marktonderzoek Biz.  

Bedrijven moeten veilige softwareontwikkelingspraktijken uitbreiden, ook wel bekend als DevSecOps, om AI gedurende de levenscyclus te beschermen. "Helaas is er geen wondermiddel om te verdedigen tegen AI-manipulaties, dus het zal nodig zijn om gelaagde mogelijkheden te gebruiken om de risico's in bedrijfsprocessen die worden aangedreven door kunstmatige intelligentie te verminderen", zei hij. Maatregelen omvatten gemeenschappelijke beveiligingsfuncties en controles, zoals opschoning van invoergegevens, verharding van de applicatie en het opzetten van beveiligingsanalyses. Bovendien moeten er stappen worden ondernomen om de gegevensintegriteit, nauwkeurigheidscontrole en sabotagedetectie te beveiligen, en vroege reactiemogelijkheden.    

Risico op onttrekking van modellen en aanvallen op de privacy  

Machine learning-modellen hebben enkele unieke beveiligings- en privacyproblemen aangetoond. "Als een model wordt blootgesteld aan externe gegevensproviders, loopt u mogelijk het risico dat het model wordt geëxtraheerd," Ordonez gewaarschuwd. In dat geval is de hacker kan in staat zijn tot reverse engineering van het model en genereer een surrogaatmodel dat de functie van het originele model reproduceert, maar met gewijzigde resultaten. "Dit heeft duidelijke gevolgen voor de vertrouwelijkheid van intellectueel eigendom", verklaarde hij.  

Om het extraheren van modellen en aanvallen op de privacy te voorkomen, zijn controles nodig. Sommige zijn eenvoudig toe te passen, zoals tariefbeperkingen, maar voor sommige modellen is mogelijk meer geavanceerde beveiliging vereist, zoals analyse van abnormaal gebruik. Als het AI-model als een service wordt geleverd, moeten bedrijven rekening houden met veiligheidscontroles in de cloudservice-omgeving. ​Open source of extern gegenereerde gegevens en modellen bieden aanvalsvectoren voor organisaties, ”verklaarde Ordóñez, omdat aanvallers mogelijk gemanipuleerde gegevens kunnen invoegen en de interne beveiliging kunnen omzeilen.   

Gevraagd hoe hun organisaties van plan zijn de technische kennis te creëren die nodig is om opkomende technologieën te ondersteunen, zeiden de meeste respondenten van de Accenture-enquête dat ze bestaande werknemers zouden opleiden (77%), zou samenwerken of samenwerken met organisaties die de ervaring hebben (73%), neem nieuw talent aan (73%), en nieuwe bedrijven of startups verwerven (49%).  

De tijd die het kost om professionals in deze vaardigheden op te leiden, wordt volgens Ordóñez onderschat. Bovendien: "De respondenten gaan ervan uit dat er enorm veel talent beschikbaar zal zijn om in te huren via AI, 5G, kwantumcomputers en uitgebreide realiteit, maar de realiteit is dat er een tekort is en zal zijn aan deze vaardigheden op de markt", verklaarde hij. "Om het probleem te verergeren, zal het nog moeilijker zijn om beveiligingstalent te vinden met deze opkomende technische vaardigheden", zei hij.  

Kenmerken van 5G-technologie roepen nieuwe beveiligingsproblemen op, waaronder virtualisatie die het aanvalsoppervlak vergroot en "hypernauwkeurige" tracking van aanvalslocaties, waardoor de privacykwesties voor gebruikers toenemen. "Net als de groei van cloudservices, heeft 5G het potentieel om schaduwnetwerken te creëren die buiten de kennis en het management van het bedrijf vallen", aldus Ordóñez.  

"De apparaatregistratie moet authenticatie omvatten om het aanvalsoppervlak van de onderneming af te handelen. Zonder dit kan de integriteit van de berichten en de identiteit van de gebruiker niet worden gegarandeerd, ”verklaarde hij. Bedrijven hebben de inzet van de Chief Information Security Officer (CISO) nodig om effectief te zijn. "Succes vereist een aanzienlijke CISO-toewijding en expertise in cyberrisicobeheer vanaf het begin en gedurende de hele dag van innovatie, inclusief de juiste mentaliteit, gedragingen en cultuur om dit mogelijk te maken."  

Augmented reality introduceert ook een reeks nieuwe beveiligingsrisico's, met kwesties als beveiliging rond locatie, vertrouwensherkenning, de inhoud van afbeeldingen en het omringende geluid, en 'inhoudmaskering'. Met betrekking tot dit: "Het commando" open deze klep "kan naar het verkeerde object worden gestuurd en een catastrofale activering genereren," stelde Ordóñez voor.  

Technieken om gegevensprivacy te bewaken in het 5G-tijdperk 

Jiani Zhang, President, Alliance en Industrial Solution Unit, Persistent Systems

Gegevensprivacy is een van de belangrijkste kwesties van het decennium, aangezien AI zich uitbreidt en tegelijkertijd meer regelgevende kaders worden ingevoerd. Verschillende technieken voor gegevensbeheer kunnen organisaties helpen om aan de regels te blijven voldoen en veilig te zijn, stelde Jiani Zhang, President van de Alliance and Industrial Solution Unit bij Persistent Systems, waar ze nauw samenwerkt met IBM en Red Hat om oplossingen voor klanten te ontwikkelen, zoals onlangs gerapporteerd in Het Enterprisers Project. 

Federatief leren​ In een veld met gevoelige gebruikersgegevens, zoals de gezondheidszorg, was de traditionele wijsheid van het afgelopen decennium om gegevens waar mogelijk te 'ontsleutelen'. De aggregatie van gegevens die nodig zijn om algoritmen voor machine learning te trainen en in te zetten, heeft echter "ernstige privacy- en beveiligingsproblemen" veroorzaakt, vooral wanneer gegevens binnen organisaties worden gedeeld. 

In een federatief leermodel blijven gegevens veilig in hun omgeving. Lokale ML-modellen worden getraind op privégegevenssets en modelupdates stromen tussen de gegevenssets die centraal moeten worden geaggregeerd. "De gegevens hoeven nooit hun lokale omgeving te verlaten", aldus Zhang.   

"Op deze manier blijven de gegevens veilig terwijl ze organisaties nog steeds de 'wijsheid van de massa' geven,"zei ze. "Federated learning verkleint het risico van een enkele aanval of lek die de privacy van alle gegevens in gevaar brengt, omdat de gegevens niet in één enkele opslagplaats zitten, maar over vele worden verspreid."  

Verklaarbare AI (XAI). Veel AI / ML-modellen, met name neurale netwerken, zijn zwarte dozen waarvan de inputs en operaties niet zichtbaar zijn voor geïnteresseerde partijen. Een nieuw onderzoeksgebied is uitlegbaarheid, dat technieken gebruikt om transparantie te helpen brengen, zoals beslissingsbomen die een complex systeem vertegenwoordigen, om het meer verantwoording te laten afleggen.   

"Op gevoelige gebieden zoals de gezondheidszorg, het bankwezen, financiële dienstverlening en verzekeringen kunnen we AI-besluitvorming niet blindelings vertrouwen ”, aldus Zhang. Een consument die is afgewezen voor een banklening heeft bijvoorbeeld het recht te weten waarom. "XAI zou een belangrijk aandachtsgebied moeten zijn voor organisaties die in de toekomst AI-systemen ontwikkelen," stelde ze voor. 

AI Ops / ML Ops​ Het idee is om de volledige levenscyclus van het ML-model te versnellen door de bewerkingen te standaardiseren, de prestaties te meten en problemen automatisch op te lossen. AIOps kan worden aangebracht op de volgende drie lagen: 

  • Infrastructuur: Met geautomatiseerde tools kunnen organisaties hun infrastructuur opschalen en voldoen aan de capaciteitsbehoeften. Zhang noemde een opkomende subset van DevOps genaamd GitOps, die DevOps-principes toepast op cloud-gebaseerde microservices die in containers worden uitgevoerd.  
  • Applicatie Performance Management (APM): Organisaties passen APM toe om downtime te beheren en prestaties te maximaliseren. APM-oplossingen bevatten een AIOps-benadering, waarbij AI en ML worden gebruikt om proactief problemen te identificeren in plaats van een reactieve benadering te kiezen.  
  • IT-servicebeheer (ITSM): IT-services omvatten hardware, software en computerbronnen in enorme systemen. ITSM past AIOps toe om ticketworkflows te automatiseren, incidenten te beheren en te analyseren, en documentatie onder zijn verantwoordelijkheden te autoriseren en te bewaken. 

Lees de bronartikelen in  Marktonderzoek Biz, in het gerelateerde rapport van Accenture en in Het Enterprisers Project. 

Afrekenen PrimeXBT
Handel met de officiële CFD-partners van AC Milan
De eenvoudigste manier om crypto te verhandelen.
Bron: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Laatste intelligentie

spot_img