Logo Zéphyrnet

Adapter la sécurité pour protéger les systèmes IA/ML

Date :

L’intelligence artificielle (IA) n’est pas seulement le dernier mot à la mode dans le monde des affaires ; cela remodèle rapidement les industries et redéfinit les processus commerciaux. Pourtant, alors que les entreprises s’efforcent d’intégrer l’IA et l’apprentissage automatique (ML) dans toutes les facettes de leurs opérations, elles introduisent également nouveaux défis en matière de sécurité et de risques. En mettant l’accent sur les pratiques de développement agiles pour obtenir un avantage concurrentiel, la sécurité passe au second plan. C’était le cas aux débuts du World Wide Web et des applications mobiles, et nous le constatons à nouveau dans le sprint vers l’IA.

La manière dont les systèmes d’IA et de ML sont construits, formés et exploités est très différente du pipeline de développement des systèmes informatiques, sites Web ou applications traditionnels. Même si certains des risques qui s’appliquent à la sécurité informatique traditionnelle restent pertinents en matière d’IA/ML, il existe plusieurs différences significatives et difficiles. Contrairement à une application Web qui s'appuie sur une base de données, les applications d'IA sont alimentées par des modèles ML. Le processus de création d'un modèle implique la collecte, le nettoyage et l'affinement des données ; former des modèles ML sur les données ; puis exécuter ces modèles à grande échelle pour faire des inférences et itérer en fonction de ce qu'ils apprennent.

Il existe quatre domaines principaux dans lesquels les logiciels traditionnels et le développement IA/ML divergent. Il s'agit respectivement des états modifiés par rapport aux états dynamiques, des règles et termes par rapport à l'utilisation et à la saisie, des environnements proxy par rapport aux systèmes en direct et du contrôle de version par rapport aux changements de provenance.

Outils d'IA/ML open source, tels que MLflow ainsi que Ray, fournissent des cadres pratiques pour créer des modèles. Mais bon nombre de ces outils et frameworks logiciels open source (OSS) ont souffert de vulnérabilités prêtes à l'emploi qui pourraient entraîner de graves exploitations et dommages. Individuellement, les bibliothèques AI/ML elles-mêmes créent une surface d'attaque beaucoup plus grande, car elles contiennent d'énormes quantités de données et de modèles qui sont aussi sûrs que l'outil AI/ML dans lequel elles sont enregistrées. Si ces outils sont compromis, les attaquants peuvent accéder à plusieurs bases de données contenant des informations confidentielles, modifier des modèles et installer des logiciels malveillants.

Sécurité dès la conception pour l'IA/ML

La sécurité informatique traditionnelle manque de plusieurs fonctionnalités clés pour protéger les systèmes IA/ML. La première est la possibilité d'analyser les outils utilisés par les data scientists pour développer les éléments constitutifs des systèmes d'IA/ML, comme Carnets de Jupyter ainsi que d'autres outils dans la chaîne d’approvisionnement IA/ML, pour les vulnérabilités de sécurité.

Si la protection des données est un élément central de la sécurité informatique, dans l’IA/ML, elle revêt une importance accrue, puisque les données en direct sont constamment utilisées pour entraîner un modèle. Cela laisse la porte ouverte à un attaquant pour manipuler les données AI/ML et peut entraîner la corruption des modèles et le fait de ne pas remplir leurs fonctions prévues.

Dans les environnements IA/ML, la protection des données nécessite la création d'un enregistrement immuable qui relie les données au modèle. Par conséquent, si les données sont modifiées ou altérées de quelque manière que ce soit, un utilisateur souhaitant recycler le modèle verrait que les valeurs de hachage (qui sont utilisées pour garantir l’intégrité des données lors de la transmission) ne correspondent pas. Cette piste d'audit crée un enregistrement permettant de retracer le moment où le fichier de données a été modifié et l'endroit où ces données sont stockées, afin de déterminer s'il y a eu une violation.

De plus, l'analyse des modèles AI/ML est nécessaire pour détecter les menaces de sécurité telles que l'injection de commandes. En effet, un modèle est un actif qui vit en mémoire, mais lorsqu'il est enregistré sur le disque (pour être distribué aux collègues), le format peut contenir du code. Ainsi, même si le modèle continuera à s’exécuter exactement comme avant, il exécutera du code arbitraire.

Compte tenu de ces défis uniques, voici quelques bonnes pratiques utiles à prendre en compte :

  • Recherchez les dépendances des vulnérabilités : Une visibilité contextualisée et des outils de requête puissants peuvent générer une vue étendue de tous les systèmes ML en temps réel. Il doit couvrir tous les fournisseurs, fournisseurs de cloud et ressources de la chaîne d'approvisionnement impliqués dans le développement de l'IA/ML pour fournir une vue de toutes les dépendances et menaces. Une nomenclature ML dynamique (ML BOM) peut répertorier tous les composants et dépendances, donnant à l'organisation une provenance complète de tous les systèmes AI/ML du réseau.

  • Autorisations cloud sécurisées : Les fuites de données des conteneurs cloud peuvent constituer une faille fatale dans la sécurité de l’IA, étant donné la dépendance du modèle à l’égard de ces données pour l’apprentissage. L'analyse des autorisations sur le cloud est une priorité pour éviter la perte de données.

  • Donnez la priorité à la sécurité du stockage des données : Mettez en œuvre des contrôles de sécurité, des politiques et des portes intégrés pour signaler et alerter automatiquement les violations de politique afin de renforcer la sécurité du modèle.

  • Outils de développement de numérisation : Tout comme les opérations de développement ont évolué vers des opérations de sécurité de développement, le développement IA/ML doit intégrer la sécurité dans le processus de développement, en analysant les environnements de développement et les outils tels que ML Flow et leurs dépendances pour détecter toute vulnérabilité, ainsi que tous les modèles IA/ML et les entrées de données.

  • Auditer régulièrement : Les outils automatisés peuvent fournir les registres immuables nécessaires qui servent de versions horodatées de l'environnement IA/ML. Cela permettra une analyse médico-légale en cas de violation, montrant qui a pu enfreindre la politique, où et quand. De plus, les audits peuvent aider à mettre à jour les protections pour faire face au paysage des menaces.

Pour exploiter le potentiel de l’IA tout en faisant face aux risques de sécurité inhérents, les organisations devraient envisager de mettre en œuvre les meilleures pratiques énumérées ci-dessus et commencer à mettre en œuvre MLSecOps.

spot_img

Dernières informations

spot_img