Logo Zephyrnet

Convergența AI, 5G și Realitatea Augmentată prezintă noi riscuri de securitate 

Data:

De John P. Desmond, AI Tendințe Editor  

Aproximativ 500 de experți de nivel C în afaceri și securitate de la companii cu venituri de peste 5 miliarde USD din mai multe industrii și-au exprimat îngrijorarea într-un sondaj recent al Accenture cu privire la potențialele vulnerabilități de securitate reprezentate de urmărirea tehnologiilor AI, 5G și realitate augmentată, toate în același timp. .  

Claudio Ordóñez, lider în securitate cibernetică pentru Accenture în Chile

Pentru a antrena corect modelele AI, de exemplu, compania trebuie să protejeze datele necesare pentru a antrena AI și mediul în care este creat. Când modelul este utilizat, datele în mișcare trebuie protejate. Datele nu pot fi colectate într-un singur loc, fie din motive tehnice sau de securitate, fie pentru protecția proprietății intelectuale. „Prin urmare, obligă companiile să introducă învățarea sigură, astfel încât diferitele părți să poată colabora”, a declarat Claudio Ordóñez, Lider în securitate cibernetică pentru Accenture în Chile, într-un cont recent în Cercetare de piata Biz.  

Companiile trebuie să extindă practicile securizate de dezvoltare de software, cunoscute ca DevSecOps, pentru a proteja AI pe parcursul ciclului de viață. „Din păcate, nu există niciun glonț de argint care să se apere împotriva manipulărilor AI, așa că va fi necesar să se utilizeze capacitățile stratificate pentru a reduce riscul în procesele de afaceri alimentate de inteligența artificială”, a spus el. Măsurile includ funcții și controale comune de securitate, cum ar fi igienizarea datelor de intrare, întărirea aplicației și configurarea analizei de securitate. În plus, trebuie luate măsuri pentru a șerpi integritatea datelor, controlul acurateței, detectarea falsificării, și capabilități de răspuns timpuriu.    

Risc de extragere a modelului și de atacuri la confidențialitate  

Modelele de învățare automată au demonstrat unele probleme unice de securitate și confidențialitate. „Dacă un model este expus unor furnizori externi de date, este posibil să fiți expus riscului de extragere a modelului.” Ordóñez avertizat. În acest caz, hackerul poate fi capabil sa faceți ingineria inversă a modelului și generați un model surogat care reproduce funcția modelului original, dar cu rezultate modificate. „Acest lucru are implicații evidente pentru confidențialitatea proprietății intelectuale”, a spus el.  

Pentru a vă proteja împotriva extragerii de modele și a atacurilor la confidențialitate, sunt necesare controale. Unele sunt ușor de aplicat, cum ar fi limitările ratei, dar unele modele pot necesita securitate mai sofisticată, cum ar fi analiza anormală a utilizării. Dacă modelul de inteligență artificială este livrat ca serviciu, companiile trebuie să ia în considerare controalele de siguranță aplicate în mediul de servicii cloud. „Datele și modelele open source sau generate extern oferă vectori de atac pentru organizații”, a declarat Ordóñez, deoarece atacatorii pot fi capabili să introducă date manipulate și să ocolească securitatea internă.   

Întrebați cum plănuiesc organizațiile lor să creeze cunoștințele tehnice necesare pentru a sprijini tehnologiile emergente, majoritatea respondenților la sondajul Accenture au spus că vor pregăti angajații existenți (77%), ar colabora sau va colabora cu organizații care au experiență (73%), angajați noi talente (73%) și să achiziționeze noi afaceri sau startup-uri (49%).  

Timpul necesar pregătirii profesioniștilor în aceste abilități este subestimat, în opinia lui Ordóñez. În plus, „Respondenții presupun că vor exista talente vaste disponibile pentru angajare din AI, 5G, calcul cuantic și realitate extinsă, dar realitatea este că există și va exista o lipsă de aceste abilități pe piață”, a declarat el. „Pentru a agrava problema, găsirea talentelor de securitate cu aceste abilități tehnologice emergente va fi și mai dificilă”, a spus el.  

Caracteristicile tehnologiei 5G ridică noi probleme de securitate, inclusiv virtualizarea care extinde suprafața de atac și urmărirea „hiper-preciză” a locațiilor de atac, crescând preocupările privind confidențialitatea utilizatorilor. „La fel ca creșterea serviciilor cloud, 5G are potențialul de a crea rețele umbră care operează în afara cunoștințelor și managementului companiei”, a declarat Ordóñez.  

Înregistrarea dispozitivului trebuie să includă autentificare pentru a gestiona suprafața de atac al întreprinderii. Fără aceasta, integritatea mesajelor și identitatea utilizatorului nu pot fi asigurate”, a spus el. Companiile vor avea nevoie de angajamentul responsabilului șef de securitate a informațiilor (CISO) pentru a fi eficiente. „Succesul necesită un angajament semnificativ și expertiză CISO în managementul riscului cibernetic de la început și pe parcursul inovației de zi cu zi, inclusiv a avea mentalitatea, comportamentele și cultura potrivite pentru a realiza acest lucru.”  

Realitatea augmentată introduce, de asemenea, o serie de noi riscuri de securitate, cu probleme de securitate în jurul locației, recunoașterea încrederii, conținutul imaginilor și sunetul din jur și „mascarea conținutului”. În acest sens, „Comanda „deschide această supapă” poate fi direcționată către obiectul greșit și poate genera o activare catastrofală”, a sugerat Ordóñez.  

Tehnici de protejare a confidențialității datelor în era 5G 

Jiani Zhang, Președinte, Unitatea Alianțe și Soluții Industriale, Sisteme persistente

Confidențialitatea datelor este una dintre cele mai importante probleme ale deceniului, pe măsură ce IA se extinde și sunt puse în aplicare mai multe cadre de reglementare în același timp. Mai multe tehnici de gestionare a datelor pot ajuta organizațiile să rămână în conformitate și să fie în siguranță, a sugerat Jiani Zhang, Președinte al Unității de Alianțe și Soluții Industriale la Persistent Systems, unde lucrează îndeaproape cu IBM și Red Hat pentru a dezvolta soluții pentru clienți, după cum sa raportat recent în Proiectul Enterprisers. 

Învățare federată. Într-un domeniu cu date sensibile ale utilizatorilor, cum ar fi asistența medicală, înțelepciunea tradițională a ultimului deceniu a fost să „dezilozi” datele ori de câte ori a fost posibil. Cu toate acestea, agregarea datelor necesare pentru instruirea și implementarea algoritmilor de învățare automată a creat „probleme serioase de confidențialitate și securitate”, mai ales atunci când datele sunt partajate în cadrul organizațiilor. 

Într-un model de învățare federalizat, datele rămân în siguranță în mediul său. Modelele locale de ML sunt antrenate pe seturi de date private, iar actualizările modelului circulă între seturile de date pentru a fi agregate central. „Datele nu trebuie să părăsească niciodată mediul local”, a declarat Zhang.   

„În acest fel, datele rămân în siguranță, oferind în același timp organizațiilor „înțelepciunea mulțimii”.Matei 22:21 a declarat ea. „Învățarea federată reduce riscul ca un singur atac sau scurgere să compromită confidențialitatea tuturor datelor, deoarece, în loc să se așeze într-un singur depozit, datele sunt răspândite între mai multe.”  

AI explicabilă (XAI). Multe modele AI/ML, în special rețelele neuronale, sunt cutii negre ale căror intrări și operațiuni nu sunt vizibile părților interesate. Un nou domeniu de cercetare este explicabilitate, care folosește tehnici pentru a ajuta la aducerea transparenței, cum ar fi arbori de decizie care reprezintă un sistem complex, pentru a-l face mai responsabil.   

În domenii sensibile, cum ar fi asistența medicală, serviciile bancare, serviciile financiare și asigurările, nu putem avea încredere orbește în luarea deciziilor AI”, a declarat Zhang. Un consumator respins pentru un împrumut bancar, de exemplu, are dreptul să știe de ce. „XAI ar trebui să fie un domeniu major de atenție pentru organizațiile care dezvoltă sisteme AI în viitor”, a sugerat ea. 

AI Ops/ML Ops. Ideea este de a accelera întregul ciclu de viață al modelului ML prin standardizarea operațiunilor, măsurarea performanței și remedierea automată a problemelor. AIOps poate fi aplicat la următoarele trei straturi: 

  • Infrastructură: Instrumentele automate permit organizațiilor să își extindă infrastructura și să țină pasul cu cerințele de capacitate. Zhang a menționat un subset emergent de DevOps numit GitOps, care aplică principiile DevOps microserviciilor bazate pe cloud care rulează în containere.  
  • Managementul performanței aplicației (APM): Organizațiile aplică APM pentru a gestiona timpul de nefuncționare și pentru a maximiza performanța. Soluțiile APM încorporează o abordare AIOps, folosind AI și ML pentru a identifica problemele în mod proactiv, mai degrabă decât să adopte o abordare reactivă.  
  • Managementul serviciilor IT (ITSM): Serviciile IT includ hardware, software și resurse de calcul în sisteme masive. ITSM aplică AIOps pentru a automatiza fluxurile de lucru de ticketing, pentru a gestiona și analiza incidentele și pentru a autoriza și monitoriza documentația printre responsabilitățile sale. 

Citiți articolele sursă din  Cercetare de piata Biz, în raportul aferent din Accenture și in Proiectul Enterprisers. 

Verificați PrimeXBT
Tranzacționează cu partenerii oficiali CFD ai AC Milan
Cea mai ușoară cale de a tranzacționa cripto.
Sursa: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Ultimele informații

spot_img

Chat cu noi

Bună! Cu ce ​​​​vă pot ajuta?