Logo Zéphyrnet

RSSI AWS : faites attention à la manière dont l'IA utilise vos données

Date :

Les entreprises adoptent de plus en plus l'IA générative pour automatiser les processus informatiques, détecter les menaces de sécurité et prendre en charge les fonctions de service client de première ligne. Un Enquête IBM en 2023 a révélé que 42 % des grandes entreprises utilisaient activement l’IA et que 40 % exploraient ou expérimentaient l’IA.

À l’intersection inévitable de l’IA et du cloud, les entreprises doivent réfléchir à la manière de sécuriser les outils d’IA dans le cloud. Chris Betz, qui est devenu RSSI chez Amazon Web Services en août dernier, y a beaucoup réfléchi.

Avant AWS, Betz était vice-président exécutif et RSSI de Capital One. Betz a également travaillé en tant que vice-président senior et directeur de la sécurité chez Lumen Technologies et dans des postes de sécurité chez Apple, Microsoft et CBS.

Dark Reading a récemment parlé avec Betz du sécurité des charges de travail d'IA dans le cloud. Une version éditée de cette conversation suit.

Dark Reading : Quels sont les principaux défis liés à la sécurisation des charges de travail d'IA dans le cloud ?

Chris Betz : Lorsque je parle avec beaucoup de nos clients de l'IA générative, ces conversations commencent souvent par : « Je dispose de données très sensibles et je cherche à offrir une fonctionnalité à mes clients. Comment puis-je le faire de manière sûre et sécurisée ? » J'apprécie vraiment cette conversation car il est très important que nos clients se concentrent sur le résultat qu'ils tentent d'obtenir.

Dark Reading : Qu'est-ce qui inquiète le plus les clients ?

Pari : La conversation doit commencer par le concept selon lequel « vos données sont vos données ». Nous avons un grand avantage dans la mesure où je peux m'appuyer sur une infrastructure informatique qui fait un très bon travail en conservant ces données là où elles se trouvent. Le premier conseil que je donne est donc le suivant : comprenez où se trouvent vos données. Comment est-il protégé ? Comment est-il utilisé dans le modèle d’IA générative ?

La deuxième chose dont nous parlons est que les interactions avec un modèle d'IA générative utilisent souvent certaines des données les plus sensibles de leurs clients. Lorsque vous interrogez un modèle d'IA générative sur une transaction spécifique, vous allez utiliser des informations sur les personnes impliquées dans cette transaction.

Dark Reading : les entreprises s'inquiètent-elles à la fois de ce que l'IA fait de leurs données internes et des données de leurs clients ?

Pari : Les clients souhaitent le plus utiliser l'IA générative dans leurs interactions avec leurs clients et dans l'exploitation minière et profiter de la quantité massive de données dont ils disposent en interne et faire en sorte que cela fonctionne soit pour les employés internes, soit pour leurs clients. Il est très important pour les entreprises de gérer ces données incroyablement sensibles de manière sûre et sécurisée, car elles constituent l’élément vital de leurs activités.

Les entreprises doivent réfléchir à l'endroit où se trouvent leurs données et à la manière dont elles sont protégées lorsqu'elles envoient des invites à l'IA et lorsqu'elles reçoivent des réponses.

Dark Reading : La qualité des réponses et la sécurité des données sont-elles liées ?

Pari : Les utilisateurs d’IA doivent toujours se demander s’ils obtiennent des réponses de qualité. La raison de la sécurité est que les gens fassent confiance à leurs systèmes informatiques. Si vous mettez en place ce système complexe qui utilise un modèle d'IA générative pour fournir quelque chose au client, vous devez que le client soit sûr que l'IA lui fournit les bonnes informations sur lesquelles agir et qu'elle protège ses informations.

Dark Reading : Existe-t-il des moyens spécifiques qu'AWS peut partager sur la façon dont il se protège contre les attaques contre l'IA dans le cloud ? Je pense aux injections rapides, aux attaques d'empoisonnement, aux attaques contradictoires, ce genre de choses.

Pari : Grâce à des bases solides déjà en place, AWS était bien préparé pour relever le défi, car nous travaillons avec l'IA depuis des années. Nous disposons d'un grand nombre de solutions d'IA internes et d'un certain nombre de services que nous proposons directement à nos clients, et la sécurité a été une considération majeure dans la manière dont nous développons ces solutions. C'est ce que nos clients demandent et c'est ce qu'ils attendent.

En tant que l’un des plus grands fournisseurs de cloud computing, nous disposons d’une large visibilité sur l’évolution des besoins en matière de sécurité à travers le monde. Les renseignements sur les menaces que nous capturons sont regroupés et utilisés pour développer des informations exploitables qui sont utilisées dans les outils et services clients tels que GardeDevoir. De plus, nos renseignements sur les menaces sont utilisés pour générer des actions de sécurité automatisées au nom des clients afin de sécuriser leurs données.

Dark Reading : Nous avons beaucoup entendu parler de fournisseurs de cybersécurité utilisant l'IA et l'apprentissage automatique pour détecter les menaces en recherchant des comportements inhabituels sur leurs systèmes. De quelles autres manières les entreprises utilisent-elles l’IA pour se protéger ?

Pari : J'ai vu des clients faire des choses incroyables avec l'IA générative. Nous les avons vu tirer parti de CodeWhisperer [le générateur de code alimenté par l'IA d'AWS] pour prototyper et développer rapidement des technologies. J'ai vu des équipes utiliser CodeWhisperer pour les aider construire du code sécurisé et veiller à ce que nous comblons les lacunes du code.

Nous avons également construit des solutions d'IA générative en contact avec certains de nos systèmes de sécurité internes. Comme vous pouvez l’imaginer, de nombreuses équipes de sécurité traitent d’énormes quantités d’informations. L'IA générative permet une synthèse de ces données pour les rendre très utilisables par les constructeurs et les équipes de sécurité pour comprendre ce qui se passe dans les systèmes, poser de meilleures questions et rassembler ces données.

Quand j'ai commencé à penser au pénurie de talents en cybersécurité, l’IA générative contribue aujourd’hui non seulement à accélérer le développement de logiciels et à améliorer la sécurité du codage, mais elle contribue également à agréger les données. Cela va continuer à nous aider car cela amplifie nos capacités humaines. L'IA nous aide à rassembler des informations pour résoudre des problèmes complexes et à transmettre les données aux ingénieurs et analystes en sécurité afin qu'ils puissent commencer à poser de meilleures questions.

Dark Reading : voyez-vous des menaces de sécurité spécifiques à l’IA et au cloud ?

Pari : J'ai passé beaucoup de temps avec des chercheurs en sécurité à étudier les attaques d'IA générative de pointe et la manière dont les attaquants les envisagent. Il y a deux catégories de choses auxquelles je pense dans cet espace. La première est que nous voyons des acteurs malveillants commencer à utiliser l’IA générative pour devenir plus rapides et meilleurs dans ce qu’ils font déjà. Le contenu d’ingénierie sociale en est un exemple.

Les attaquants utilisent également la technologie de l’IA pour écrire du code plus rapidement. C’est très similaire à la situation de la défense. Une partie de la puissance de cette technologie réside dans le fait qu’elle facilite certaines activités, ce qui est vrai pour les attaquants, mais également pour les défenseurs.

L’autre domaine sur lequel les chercheurs commencent à s’intéresser davantage est le fait que ces modèles d’IA génératifs sont du code. Comme les autres codes, ils sont susceptibles de présenter des faiblesses. Il est important que nous comprenions comment les sécuriser et nous assurer qu'ils existent dans un environnement doté de défenses.

spot_img

Dernières informations

spot_img