Logo Zéphyrnet

À quoi pourrait ressembler l’utilisation de la sécurité pour réguler les puces IA

Date :

Des chercheurs d’OpenAI, de l’Université de Cambridge, de l’Université Harvard et de l’Université de Toronto ont proposé une approche « exploratoire » des idées sur la façon de réglementer les puces et le matériel IA, et comment les politiques de sécurité pourraient empêcher les abus de l’IA avancée.

Les recommandations proposent des moyens de mesurer et d’auditer le développement et l’utilisation de systèmes d’IA avancés et des puces qui les alimentent. Les recommandations d'application des politiques incluent la limitation des performances des systèmes et la mise en œuvre de fonctionnalités de sécurité capables de désactiver à distance les puces malveillantes.

"La formation de systèmes d'IA hautement performants nécessite actuellement d'accumuler et d'orchestrer des milliers de puces d'IA", ont écrit les chercheurs. « Si ces systèmes sont potentiellement dangereux, limiter cette puissance de calcul accumulée pourrait servir à limiter la production de systèmes d’IA potentiellement dangereux. »

Les gouvernements se sont largement concentrés sur les logiciels pour la politique en matière d'IA, et le document constitue un document complémentaire couvrant l'aspect matériel du débat, explique Nathan Brookwood, analyste principal d'Insight 64.

Cependant, l’industrie n’acceptera aucune fonctionnalité de sécurité affectant les performances de l’IA, prévient-il. Rendre l'IA sûre grâce au matériel « est une noble aspiration, mais je ne vois aucun de ceux qui y parviendront. Le génie est sorti de la lampe et bonne chance pour le remettre en place », dit-il.

Limitation des connexions entre les clusters

L’une des propositions suggérées par les chercheurs est un plafond visant à limiter la capacité de traitement informatique disponible pour les modèles d’IA. L’idée est de mettre en place des mesures de sécurité permettant d’identifier les abus des systèmes d’IA, ainsi que d’interrompre et de limiter l’utilisation des puces.

Plus précisément, ils suggèrent une approche ciblée visant à limiter la bande passante entre les clusters de mémoire et de puces. L’alternative la plus simple – couper l’accès aux puces – n’était pas idéale car elle affecterait les performances globales de l’IA, ont écrit les chercheurs.

Le document ne suggère pas de moyens de mettre en œuvre de tels garde-fous de sécurité ni de moyens de détecter les abus des systèmes d’IA.

"La détermination de la limite optimale de bande passante pour les communications externes est un domaine qui mérite des recherches plus approfondies", ont écrit les chercheurs.

Les systèmes d'IA à grande échelle nécessitent une bande passante réseau considérable, et les systèmes d'IA tels que Eagle de Microsoft et Eos de Nvidia comptent parmi les meilleurs. Top 10 des supercalculateurs les plus rapides au monde. Il existe des moyens de limiter les performances du réseau pour les appareils prenant en charge le langage de programmation P4, qui peut analyser le trafic réseau et reconfigurer les routeurs et les commutateurs.

Mais bonne chance pour demander aux fabricants de puces de mettre en œuvre des mécanismes de sécurité IA qui pourraient ralentir les puces et les réseaux, dit Brookwood.

« Arm, Intel et AMD sont tous occupés à construire les puces les plus rapides et les plus puissantes qu'ils puissent construire pour être compétitifs. Je ne sais pas comment ralentir », dit-il.

Les possibilités éloignées comportent certains risques

Les chercheurs ont également suggéré de désactiver les puces à distance, ce qu'Intel a intégré à ses dernières puces de serveur. La fonctionnalité On Demand est un service d'abonnement qui permettra aux clients Intel d'activer et de désactiver des fonctionnalités sur puce telles que les extensions IA, comme sièges chauffants dans une Tesla.

Les chercheurs ont également suggéré un système d'attestation dans lequel les puces permettent uniquement aux parties autorisées d'accéder aux systèmes d'IA via des certificats numériques signés cryptographiquement. Le micrologiciel pourrait fournir des directives sur les utilisateurs et les applications autorisés, qui pourraient être modifiées avec des mises à jour.

Bien que les chercheurs n'aient pas fourni de recommandations techniques sur la façon dont cela serait réalisé, l'idée est similaire à la façon dont l'informatique confidentielle sécurise les applications sur puces en attester les utilisateurs autorisés. Intel ainsi que AMD disposent de données informatiques confidentielles sur leurs puces, mais il est encore tôt pour cette technologie émergente.

Il existe également des risques liés à l’application des politiques à distance. "Les mécanismes d'application à distance présentent des inconvénients importants et ne peuvent être justifiés que si les dommages attendus de l'IA sont extrêmement élevés", ont écrit les chercheurs.

Brookwood est d'accord.

«Même si vous le pouviez, il y aura des méchants qui poursuivront. Imposer des contraintes artificielles aux gentils sera inefficace », dit-il.

spot_img

Dernières informations

spot_img