Logo Zéphyrnet

La convergence de l'IA, de la 5G et de la réalité augmentée pose de nouveaux risques pour la sécurité 

Date :

Par John P. Desmond, Tendances de l'IA Éditeur  

Quelque 500 experts en affaires et en sécurité de niveau C provenant d'entreprises avec plus de 5 milliards de dollars de revenus dans plusieurs secteurs ont exprimé leur inquiétude dans une récente enquête d'Accenture concernant les vulnérabilités de sécurité potentielles posées par la poursuite simultanée des technologies de l'IA, de la 5G et de la réalité augmentée. .  

Claudio Ordóñez, responsable de la cybersécurité pour Accenture au Chili

Pour former correctement les modèles d'IA, par exemple, l'entreprise doit protéger les données nécessaires pour former l'IA et l'environnement dans lequel elle est créée. Lorsque le modèle est utilisé, les données en mouvement doivent être protégées. Les données ne peuvent être collectées en un seul endroit, que ce soit pour des raisons techniques ou de sécurité, ou pour la protection de la propriété intellectuelle. "Par conséquent, cela oblige les entreprises à insérer un apprentissage sécurisé afin que les différentes parties puissent collaborer », a déclaré Claudio Ordoñez, Leader de la cybersécurité pour Accenture au Chili, dans un récent compte Étude de marché Biz.  

Les entreprises doivent étendre leurs pratiques de développement logiciel sécurisées, appelées DevSecOps, pour protéger l'IA tout au long du cycle de vie. «Malheureusement, il n'y a pas de solution miracle pour se défendre contre les manipulations de l'IA, il sera donc nécessaire d'utiliser des capacités en couches pour réduire les risques dans les processus métier alimentés par l'intelligence artificielle», a-t-il déclaré. Les mesures comprennent des fonctions et des contrôles de sécurité communs tels que la désinfection des données d'entrée, le renforcement de l'application et la mise en place d'une analyse de sécurité. De plus, des mesures doivent être prises pour assurer l'intégrité des données, le contrôle de la précision et la détection des sabotages, et capacités de réponse rapide.    

Risque d'extraction de modèle et d'atteintes à la vie privée  

Les modèles d'apprentissage automatique ont démontré des problèmes de sécurité et de confidentialité uniques. "Si un modèle est exposé à des fournisseurs de données externes, vous risquez de subir une extraction de modèle," Ordoñez averti. Dans ce cas, le hacker devrait être capable de Rétroconcevoir le modèle et générer un modèle de substitution qui reproduit la fonction du modèle d'origine, mais avec des résultats modifiés. «Cela a des implications évidentes pour la confidentialité de la propriété intellectuelle», a-t-il déclaré.  

Pour se prémunir contre l'extraction de modèles et les attaques contre la confidentialité, des contrôles sont nécessaires. Certains sont faciles à appliquer, comme les limitations de débit, mais certains modèles peuvent nécessiter une sécurité plus sophistiquée, comme une analyse d'utilisation anormale. Si le modèle d'IA est fourni en tant que service, les entreprises doivent envisager des contrôles de sécurité en place dans l'environnement de service cloud. "Les données et modèles open source ou générés en externe fournissent des vecteurs d'attaque pour les organisations », a déclaré Ordóñez, car les attaquants peuvent être en mesure d'insérer des données manipulées et de contourner la sécurité interne.   

Lorsqu'on leur a demandé comment leurs organisations envisageaient de créer les connaissances techniques nécessaires pour prendre en charge les technologies émergentes, la plupart des répondants à l'enquête Accenture ont déclaré qu'ils formeraient les employés existants (77%), collaboreraient ou établiraient des partenariats avec des organisations qui ont l'expérience (73%), embauchez de nouveaux talents (73%) et acquérir de nouvelles entreprises ou startups (49%).  

Selon Ordóñez, le temps nécessaire pour former des professionnels à ces compétences est sous-estimé. En outre, «les répondants supposent qu'il y aura de vastes talents disponibles pour embaucher de l'IA, de la 5G, de l'informatique quantique et de la réalité étendue, mais la réalité est qu'il y a et qu'il y aura une pénurie de ces compétences sur le marché», a-t-il déclaré. «Pour aggraver le problème, il sera encore plus difficile de trouver des talents en sécurité avec ces compétences technologiques émergentes», a-t-il déclaré.  

Les fonctionnalités de la technologie 5G soulèvent de nouveaux problèmes de sécurité, notamment la virtualisation qui étend la surface d'attaque et le suivi «hyper-précis» des emplacements d'attaque, augmentant ainsi les problèmes de confidentialité des utilisateurs. «À l'instar de la croissance des services cloud, la 5G a le potentiel de créer des réseaux fantômes qui fonctionnent en dehors des connaissances et de la gestion de l'entreprise», a déclaré Ordóñez.  

"L'enregistrement de l'appareil doit inclure une authentification pour gérer la surface d'attaque de l'entreprise. Sans cela, l'intégrité des messages et l'identité de l'utilisateur ne peuvent être assurées », a-t-il déclaré. Les entreprises auront besoin de l'engagement du responsable de la sécurité de l'information (RSSI) pour être efficaces. «Pour réussir, il faut un engagement et une expertise importants du RSSI en matière de gestion des cyberrisques dès le départ et tout au long de l’innovation au quotidien, y compris avoir la bonne mentalité, les bons comportements et la bonne culture pour y parvenir.»  

La réalité augmentée introduit également une gamme de nouveaux risques de sécurité, avec des problèmes de sécurité autour de l'emplacement, de reconnaissance de confiance, du contenu des images et du son environnant, et du «masquage du contenu». À ce propos, «La commande« ouvrir cette vanne »peut être dirigée vers le mauvais objet et générer une activation catastrophique», a suggéré Ordóñez.  

Techniques pour protéger la confidentialité des données à l'ère de la 5G 

Jiani Zhang, président, Alliance et unité de solutions industrielles, Systèmes persistants

La confidentialité des données est l'un des problèmes les plus importants de la décennie, alors que l'IA se développe et que de plus en plus de cadres réglementaires sont mis en place en même temps. Plusieurs techniques de gestion des données peuvent aider les organisations à rester en conformité et à être sécurisées, a suggéré Jiani Zhang, présidente de l'unité Alliance et solutions industrielles chez Persistent Systems, où elle travaille en étroite collaboration avec IBM et Red Hat pour développer des solutions pour les clients, comme indiqué récemment dans Le projet Enterprisers. 

Apprentissage fédéré. Dans un domaine avec des données sensibles sur les utilisateurs comme les soins de santé, la sagesse traditionnelle de la dernière décennie était de «désarchiver» les données chaque fois que cela était possible. Cependant, l'agrégation des données nécessaires pour former et déployer des algorithmes d'apprentissage automatique a créé «de graves problèmes de confidentialité et de sécurité», en particulier lorsque les données sont partagées au sein des organisations. 

Dans un modèle d'apprentissage fédéré, les données restent sécurisées dans leur environnement. Les modèles ML locaux sont formés sur des ensembles de données privés et les mises à jour de modèles circulent entre les ensembles de données pour être agrégées de manière centralisée. «Les données ne doivent jamais quitter leur environnement local», a déclaré Zhang.   

«De cette façon, les données restent sécurisées tout en donnant aux organisations la« sagesse de la foule », » dit-elle. «L'apprentissage fédéré réduit le risque d'une seule attaque ou fuite compromettant la confidentialité de toutes les données, car au lieu de rester dans un seul référentiel, les données sont réparties entre plusieurs.»  

AI explicable (XAI). De nombreux modèles AI / ML, les réseaux de neurones en particulier, sont des boîtes noires dont les entrées et les opérations ne sont pas visibles pour les parties intéressées. Un nouveau domaine de recherche est explicabilité, qui utilise des techniques pour aider à apporter la transparence, comme les arbres de décision représentant un système complexe, pour le rendre plus responsable.   

"Dans des domaines sensibles tels que la santé, la banque, les services financiers et les assurances, nous ne pouvons pas faire confiance aveuglément au processus décisionnel de l'IA », a déclaré Zhang. Un consommateur refusé pour un prêt bancaire, par exemple, a le droit de savoir pourquoi. «La XAI devrait être un domaine d'intérêt majeur pour les organisations qui développent des systèmes d'IA à l'avenir», a-t-elle suggéré. 

AI Ops / ML Ops. L'idée est d'accélérer l'ensemble du cycle de vie du modèle ML en standardisant les opérations, en mesurant les performances et en résolvant automatiquement les problèmes. L'AIOps peut être appliqué aux trois couches suivantes: 

  • Infrastructure: Les outils automatisés permettent aux organisations de faire évoluer leur infrastructure et de répondre aux demandes de capacité. Zhang a mentionné un sous-ensemble émergent de DevOps appelé GitOps, qui applique les principes DevOps aux microservices cloud s'exécutant dans des conteneurs.  
  • Gestion des performances des applications (APM): Les organisations appliquent l'APM pour gérer les temps d'arrêt et maximiser les performances. Les solutions APM intègrent une approche AIOps, utilisant l'IA et le ML pour identifier de manière proactive les problèmes plutôt que d'adopter une approche réactive.  
  • Gestion des services informatiques (ITSM): Les services informatiques englobent les ressources matérielles, logicielles et informatiques dans des systèmes massifs. ITSM applique AIOps pour automatiser les flux de travail de billetterie, gérer et analyser les incidents, et autoriser et surveiller la documentation parmi ses responsabilités. 

Lisez les articles sources dans  Étude de marché Biz, dans le rapport correspondant de Accenture et in Le projet Enterprisers. 

Commander PrimeXBT
Échangez avec les partenaires CFD officiels de l'AC Milan
Le moyen le plus simple de trader la crypto.
Source : https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?