Logo Zephyrnet

La convergenza di IA, 5G e realtà aumentata pone nuovi rischi per la sicurezza 

Data:

Di John P. Desmond, Tendenze AI editore  

In un recente sondaggio di Accenture, circa 500 esperti di sicurezza e business di livello C di aziende con oltre 5 miliardi di dollari di ricavi in ​​più settori hanno espresso preoccupazione in merito alle potenziali vulnerabilità di sicurezza poste dal perseguimento simultaneo di tecnologie di intelligenza artificiale, 5G e realtà aumentata .  

Claudio Ordóñez, Cybersecurity Leader per Accenture in Cile

Per addestrare correttamente i modelli di IA, ad esempio, l'azienda deve proteggere i dati necessari per addestrare l'IA e l'ambiente in cui viene creata. Quando il modello viene utilizzato, i dati in movimento devono essere protetti. I dati non possono essere raccolti in un unico luogo, né per motivi tecnici o di sicurezza, né per la tutela della proprietà intellettuale. “Pertanto, costringe le aziende a inserire l'apprendimento sicuro in modo che le diverse parti possano collaborare”, ha affermato Claudio Ordonez, Leader della sicurezza informatica per Accenture in Cile, in un recente resoconto in Ricerca di mercato Biz.  

Le aziende devono estendere pratiche di sviluppo software sicure, note come DevSecOps, per proteggere l'IA durante il ciclo di vita. "Purtroppo, non esiste un proiettile d'argento per difendersi dalle manipolazioni dell'IA, quindi sarà necessario utilizzare capacità a più livelli per ridurre il rischio nei processi aziendali basati sull'intelligenza artificiale", ha affermato. Le misure includono funzioni e controlli di sicurezza comuni come la sanificazione dei dati di input, il rafforzamento dell'applicazione e l'impostazione dell'analisi della sicurezza. Inoltre, è necessario adottare misure per l'integrità dei dati del serpente, il controllo della precisione e il rilevamento delle manomissioni, e capacità di risposta precoce.    

Rischio di estrazione del modello e attacchi alla privacy  

I modelli di machine learning hanno dimostrato alcuni problemi di sicurezza e privacy unici. "Se un modello è esposto a fornitori di dati esterni, potresti essere a rischio di estrazione del modello", Ordonez messo in guardia. In tal caso, l'hacker poter essere capace di decodificare il modello e generare un modello surrogato che riproduce la funzione del modello originale, ma con risultati alterati. "Ciò ha ovvie implicazioni per la riservatezza della proprietà intellettuale", ha affermato.  

Per proteggersi dall'estrazione di modelli e dagli attacchi alla privacy, sono necessari controlli. Alcuni sono facili da applicare, come i limiti di tariffa, ma alcuni modelli potrebbero richiedere una sicurezza più sofisticata, come l'analisi dell'utilizzo anormale. Se il modello di intelligenza artificiale viene fornito come servizio, le aziende devono considerare i controlli di sicurezza in atto nell'ambiente del servizio cloud. “Dati e modelli open source o generati esternamente forniscono vettori di attacco per le organizzazioni", ha affermato Ordóñez, perché gli aggressori potrebbero essere in grado di inserire dati manipolati e aggirare la sicurezza interna.   

Alla domanda su come le loro organizzazioni stiano pianificando di creare le conoscenze tecniche necessarie per supportare le tecnologie emergenti, la maggior parte degli intervistati al sondaggio Accenture ha affermato che formerebbe i dipendenti esistenti (77%), collaborerà o collaborerà con organizzazioni che hanno esperienza (73%), assumere nuovi talenti (73%) e acquisire nuove imprese o start-up (49%).  

Il tempo necessario per formare professionisti in queste competenze è sottovalutato, secondo Ordóñez. Inoltre, "Gli intervistati presumono che ci saranno vasti talenti disponibili da assumere da AI, 5G, informatica quantistica e realtà estesa, ma la realtà è che c'è e ci sarà una carenza di queste competenze sul mercato", ha affermato. "Ad aggravare il problema, trovare talenti nel campo della sicurezza con queste competenze tecnologiche emergenti sarà ancora più difficile", ha affermato.  

Le funzionalità della tecnologia 5G sollevano nuovi problemi di sicurezza, tra cui la virtualizzazione che espande la superficie di attacco e il monitoraggio "iperaccurato" delle posizioni degli attacchi, aumentando i problemi di privacy per gli utenti. "Come la crescita dei servizi cloud, il 5G ha il potenziale per creare reti ombra che operano al di fuori delle conoscenze e della gestione dell'azienda", ha affermato Ordóñez.  

"La registrazione del dispositivo deve includere l'autenticazione per gestire la superficie di attacco dell'azienda. Senza di essa, l'integrità dei messaggi e l'identità dell'utente non possono essere garantite", ha affermato. Le aziende avranno bisogno dell'impegno del Chief Information Security Officer (CISO) per essere efficaci. "Il successo richiede un impegno e una competenza CISO significativi nella gestione del rischio informatico fin dall'inizio e durante l'intera giornata dell'innovazione, compreso il possesso della giusta mentalità, comportamenti e cultura per realizzarlo".  

La realtà aumentata introduce anche una serie di nuovi rischi per la sicurezza, con problemi di sicurezza intorno alla posizione, riconoscimento della fiducia, contenuto delle immagini e suono circostante e "mascheramento del contenuto". A questo proposito, "Il comando "apri questa valvola" può essere diretto all'oggetto sbagliato e generare un'attivazione catastrofica", ha suggerito Ordóñez.  

Tecniche per proteggere la privacy dei dati nell'era 5G 

Jiani Zhang, Presidente, Alliance and Industrial Solution Unit, Persistent Systems

La privacy dei dati è una delle questioni più importanti del decennio, poiché l'IA si espande e vengono messi in atto più quadri normativi contemporaneamente. Diverse tecniche di gestione dei dati possono aiutare le organizzazioni a mantenere la conformità e ad essere sicure, ha suggerito Jiani Zhang, Presidente dell'Alliance and Industrial Solution Unit di Persistent Systems, dove lavora a stretto contatto con IBM e Red Hat per sviluppare soluzioni per i clienti, come riportato di recente in Il progetto Enterprisers. 

Apprendimento federato. In un campo con dati sensibili degli utenti come quello sanitario, la saggezza tradizionale dell'ultimo decennio era quella di "scorporare" i dati quando possibile. Tuttavia, l'aggregazione dei dati necessaria per addestrare e distribuire algoritmi di apprendimento automatico ha creato "gravi problemi di privacy e sicurezza", soprattutto quando i dati vengono condivisi all'interno delle organizzazioni. 

In un modello di apprendimento federato, i dati rimangono al sicuro nel relativo ambiente. I modelli ML locali vengono addestrati su set di dati privati ​​e gli aggiornamenti del modello fluiscono tra i set di dati da aggregare centralmente. "I dati non devono mai lasciare il loro ambiente locale", ha affermato Zhang.   

"In questo modo, i dati rimangono al sicuro pur offrendo alle organizzazioni la 'saggezza della folla'ha affermato. "L'apprendimento federato riduce il rischio di un singolo attacco o perdita che compromette la privacy di tutti i dati perché invece di stare in un unico repository, i dati sono sparsi tra molti".  

IA spiegabile (XAI). Molti modelli AI/ML, in particolare le reti neurali, sono scatole nere i cui input e operazioni non sono visibili alle parti interessate. Una nuova area di ricerca è spiegabilità, che utilizza tecniche per contribuire a portare trasparenza, come alberi decisionali che rappresentano un sistema complesso, per renderlo più responsabile.   

"In settori delicati come l'assistenza sanitaria, le banche, i servizi finanziari e le assicurazioni, non possiamo fidarci ciecamente del processo decisionale dell'IA", ha affermato Zhang. Un consumatore rifiutato per un prestito bancario, ad esempio, ha il diritto di sapere perché. "XAI dovrebbe essere una delle principali aree di interesse per le organizzazioni che sviluppano sistemi di intelligenza artificiale in futuro", ha suggerito. 

Operazioni AI/Opzioni ML. L'idea è di accelerare l'intero ciclo di vita del modello ML standardizzando le operazioni, misurando le prestazioni e risolvendo automaticamente i problemi. AIOps può essere applicato ai tre livelli seguenti: 

  • Infrastrutture: Gli strumenti automatizzati consentono alle organizzazioni di scalare la propria infrastruttura e tenere il passo con le richieste di capacità. Zhang ha menzionato un sottoinsieme emergente di DevOps chiamato GitOps, che applica i principi DevOps ai microservizi basati su cloud in esecuzione in container.  
  • Gestione delle prestazioni dell'applicazione (APM): Le organizzazioni stanno applicando l'APM per gestire i tempi di inattività e massimizzare le prestazioni. Le soluzioni APM incorporano un approccio AIOps, utilizzando AI e ML per identificare in modo proattivo i problemi piuttosto che adottare un approccio reattivo.  
  • Gestione dei servizi IT (ITSM): I servizi IT comprendono hardware, software e risorse informatiche in sistemi enormi. ITSM applica AIOps per automatizzare i flussi di lavoro di ticketing, gestire e analizzare gli incidenti e autorizzare e monitorare la documentazione tra le sue responsabilità. 

Leggi gli articoli di origine in  Ricerca di mercato Biz, nella relativa relazione di Accenture ed in Il progetto Enterprisers. 

Acquista PrimeXBT
Fai trading con i CFD Partner ufficiali dell'AC Milan
Il modo più semplice per scambiare criptovalute.
Fonte: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

L'ultima intelligenza

spot_img