Logo Zéphyrnet

Opérationnaliser les principes de l'IA responsable pour la défense – IBM Blog

Date :


Opérationnaliser les principes de l'IA responsable pour la défense – IBM Blog



Vue arrière d'une jeune femme, scientifique indépendante en données travaillant à distance à domicile, programmation de codage sur l'exploration de données volumineuses, ingénierie de données IA, technicien informatique travaillant sur un projet d'intelligence artificielle.

L'intelligence artificielle (IA) transforme la société, y compris la nature même de la sécurité nationale. Conscient de cela, le ministère de la Défense (DoD) a lancé le Joint Artificial Intelligence Center (JAIC) en 2019, le prédécesseur du Chief Digital and Artificial Intelligence Office (CDAO), pour développer des solutions d'IA qui créent un avantage militaire compétitif, des conditions pour l'humanité. l’adoption centrée de l’IA et l’agilité des opérations du DoD. Cependant, les obstacles à la mise à l’échelle, à l’adoption et à la réalisation du plein potentiel de l’IA au sein du DoD sont similaires à ceux du secteur privé.

Une Enquête IBM ont constaté que les principaux obstacles empêchant le déploiement réussi de l’IA comprennent des compétences et une expertise limitées en IA, la complexité des données et les préoccupations éthiques. De plus, selon le Institut IBM de valeur commerciale, 79 % des dirigeants déclarent que l'éthique de l'IA est importante pour leur approche de l'IA à l'échelle de leur entreprise, mais moins de 25 % ont mis en œuvre des principes communs d'éthique de l'IA. Gagner la confiance dans les résultats des modèles d’IA est un défi sociotechnique qui nécessite une solution sociotechnique.

Les dirigeants de la défense qui s’efforcent de rendre opérationnelle la conservation responsable de l’IA doivent d’abord s’entendre sur un vocabulaire commun – une culture commune qui guide une utilisation sûre et responsable de l’IA – avant de mettre en œuvre des solutions technologiques et des garde-fous qui atténuent les risques. Le DoD peut établir une base solide pour y parvenir en améliorant les connaissances en IA et en s'associant avec des organisations de confiance pour développer une gouvernance alignée sur ses objectifs et ses valeurs stratégiques.

La maîtrise de l’IA est indispensable pour la sécurité

Il est important que le personnel sache comment déployer l'IA pour améliorer l'efficacité organisationnelle. Mais il est tout aussi important qu’ils comprennent parfaitement les risques et les limites de l’IA et comment mettre en œuvre les mesures de sécurité et les garde-fous éthiques appropriés. Ce sont des enjeux de table pour le DoD ou toute agence gouvernementale.

Un parcours d'apprentissage sur mesure en IA peut aider à identifier les lacunes et la formation nécessaire afin que le personnel acquière les connaissances dont il a besoin pour ses rôles spécifiques. La maîtrise de l’IA à l’échelle de l’institution est essentielle pour tout le personnel afin qu’il puisse évaluer, décrire et répondre rapidement aux menaces virales et dangereuses à évolution rapide telles que la désinformation et les deepfakes. 

IBM applique l'alphabétisation en IA de manière personnalisée au sein de notre organisation, car la définition de l'alphabétisation essentielle varie en fonction du poste de chaque personne.

Soutenir les objectifs stratégiques et s’aligner sur les valeurs

En tant que leader de l'intelligence artificielle fiable, IBM possède de l'expérience dans le développement de cadres de gouvernance qui guident une utilisation responsable de l'IA, conformément aux valeurs des organisations clientes. IBM dispose également de ses propres cadres d'utilisation de l'IA au sein même d'IBM, informant positions politiques comme l'utilisation de la technologie de reconnaissance faciale.

Les outils d'IA sont désormais utilisés dans le cadre de la sécurité nationale et pour aider à se protéger contre les violations de données ainsi que cyber-attaques. Mais l’IA soutient également d’autres objectifs stratégiques du DoD. Ça peut augmenter l'effectif, contribuant à les rendre plus efficaces et les aidant se recycler. Cela peut aider à créer des les chaînes d'approvisionnement pour soutenir les soldats, les marins, les aviateurs et les marines dans des rôles de combat, d'aide humanitaire, de maintien de la paix et de secours en cas de catastrophe.

Le CDAO comprend cinq principes éthiques de responsabilité, d'équité, de traçabilité, de fiabilité et de gouvernabilité dans le cadre de son boîte à outils d’IA responsable. Basés sur le cadre éthique existant de l’armée américaine, ces principes sont ancrés dans les valeurs de l’armée et contribuent à respecter son engagement en faveur d’une IA responsable.

Il doit y avoir un effort concerté pour faire de ces principes une réalité en prenant en compte les exigences fonctionnelles et non fonctionnelles des modèles et les systèmes de gouvernance autour de ces modèles. Ci-dessous, nous fournissons des recommandations générales pour la mise en œuvre des principes éthiques du CDAO.

1. Responsable

"Le personnel du DoD fera preuve de jugement et de soin appropriés, tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA."

Tout le monde s’accorde sur le fait que les modèles d’IA doivent être développés par un personnel prudent et attentionné, mais comment les organisations peuvent-elles encourager les gens à faire ce travail ? Nous recommandons:

  • Favoriser une culture organisationnelle qui reconnaît la nature sociotechnique des défis de l’IA. Cela doit être communiqué dès le départ, et il doit y avoir une reconnaissance des pratiques, des compétences et de la réflexion qui doivent être intégrées aux modèles et à leur gestion pour contrôler les performances.
  • Détailler les pratiques éthiques tout au long du cycle de vie de l’IA, correspondant aux objectifs de l’entreprise (ou de la mission), à la préparation et à la modélisation des données, à l’évaluation et au déploiement. Le CRISP-DM le modèle est utile ici. IBM Méthode de science des données à l'échelle, une extension de CRISP-DM, offre une gouvernance tout au long du cycle de vie du modèle d'IA, éclairée par la contribution collaborative de scientifiques des données, de psychologues industriels et organisationnels, de concepteurs, de spécialistes de la communication et autres. La méthode fusionne les meilleures pratiques en matière de science des données, de gestion de projet, de cadres de conception et de gouvernance de l'IA. Les équipes peuvent facilement voir et comprendre les exigences à chaque étape du cycle de vie, y compris la documentation, les personnes avec qui elles doivent parler ou collaborer et les prochaines étapes.
  • Fournir des métadonnées de modèle d'IA interprétables (par exemple, comme fiches) précisant les personnes responsables, les critères de performance (par rapport aux humains), les données et méthodes utilisées, les enregistrements d'audit (date et par qui), ainsi que l'objet et les résultats de l'audit.

Remarque : Ces mesures de responsabilité doivent être interprétables par des non-experts en IA (sans « explication mathématique »).

2. Équitable

« Le ministère prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités de l’IA. »

Tout le monde s’accorde sur le fait que l’utilisation des modèles d’IA doit être équitable et non discriminatoire, mais comment cela se passe-t-il en pratique ? Nous recommandons:

  • Établir un centre d'excellence offrir à des équipes diverses et multidisciplinaires une communauté de formation appliquée afin d’identifier les impacts disparates potentiels.
  • Utiliser des outils d’audit pour refléter les biais présentés dans les modèles. Si la réflexion s’aligne sur les valeurs de l’organisation, la transparence autour des données et méthodes choisies est essentielle. Si la réflexion ne correspond pas aux valeurs organisationnelles, c’est le signe que quelque chose doit changer. Découvrir et atténuer les impacts disparates potentiels causés par les biais impliquent bien plus que l’examen des données sur lesquelles le modèle a été formé. Les organisations doivent également examiner les personnes et les processus impliqués. Par exemple, les utilisations appropriées et inappropriées du modèle ont-elles été clairement communiquées ?
  • Mesurer l’équité et établir des normes d’équité passible d'action en fournissant des exigences fonctionnelles et non fonctionnelles pour différents niveaux de service.
  • En utilisant design thinking des cadres pour évaluer les effets involontaires des modèles d’IA, déterminer les droits des utilisateurs finaux et opérationnaliser les principes. Il est essentiel que les exercices de design thinking incluent des personnes ayant des expériences vécues très variées :plus c'est diversifié, mieux c'est.

3. Traçable

« Les capacités d'IA du Département seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris avec des méthodologies, des sources de données, des procédures de conception et une documentation transparentes et vérifiables. »

Opérationnalisez la traçabilité en fournissant des directives claires à tout le personnel utilisant l’IA :

  • Informez toujours clairement les utilisateurs lorsqu'ils interagissent avec un système d'IA.
  • Fournir une base de contenu pour les modèles d’IA. Donnez aux experts du domaine les moyens d’organiser et de maintenir des sources de données fiables utilisées pour entraîner les modèles. Le résultat du modèle est basé sur les données sur lesquelles il a été formé.

IBM et ses partenaires peuvent fournir des solutions d'IA avec un contenu complet et vérifiable, indispensable aux cas d'utilisation à haut risque.

  • Capture métadonnées clés pour rendre les modèles d'IA transparents et suivre l'inventaire des modèles. Assurez-vous que ces métadonnées sont interprétables et que les bonnes informations sont exposées au personnel approprié. L’interprétation des données demande de la pratique et constitue un effort interdisciplinaire. Chez IBM, notre Conception pour l'IA Le groupe vise à sensibiliser les employés sur le rôle critique des données dans l'IA (entre autres principes fondamentaux) et fait don de frameworks à la communauté open source.
  • Rendre ces métadonnées facilement trouvables par les gens (en fin de compte à la source de sortie).
  • Incluez l’humain dans la boucle, car l’IA devrait augmenter et aider les humains. Cela permet aux humains de fournir des commentaires pendant le fonctionnement des systèmes d’IA.
  • Créez des processus et des cadres pour évaluer les impacts disparates et les risques de sécurité bien avant le déploiement ou l’acquisition du modèle. Désignez des personnes responsables pour atténuer ces risques.

4. Fiable

« Les capacités d'IA du Département auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie. »

Les organisations doivent documenter des cas d'utilisation bien définis, puis tester leur conformité. L'opérationnalisation et la mise à l'échelle de ce processus nécessitent un fort alignement culturel afin que les praticiens adhèrent aux normes les plus élevées, même sans surveillance directe constante. Les meilleures pratiques incluent :

  • Établir des communautés qui réaffirment constamment why des résultats équitables et fiables sont essentiels. De nombreux praticiens croient sincèrement qu’en ayant simplement les meilleures intentions, il ne peut y avoir d’impact disparate. C’est une erreur. Une formation appliquée dispensée par des dirigeants communautaires très engagés qui permettent aux gens de se sentir entendus et inclus est essentielle.
  • Construire des justifications de tests de fiabilité autour des lignes directrices et des normes pour les données utilisées dans la formation des modèles. La meilleure façon de concrétiser cela est de proposer des exemples de ce qui peut se produire lorsque cet examen minutieux fait défaut.
  • Limitez l'accès des utilisateurs au développement du modèle, mais rassemblez diverses perspectives dès le début d'un projet pour atténuer l'introduction de biais.
  • Effectuez des contrôles de confidentialité et de sécurité tout au long du cycle de vie de l’IA.
  • Incluez des mesures d’exactitude dans les audits régulièrement programmés. Soyez franc et sans équivoque sur la façon dont les performances du modèle se comparent à celles d’un être humain. Si le modèle ne fournit pas de résultat précis, précisez qui est responsable de ce modèle et quels sont les recours dont disposent les utilisateurs. (Tout cela devrait être intégré dans les métadonnées interprétables et trouvables).

5. Gouvernable

"Le Département concevra et concevra des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter des conséquences imprévues, ainsi que la capacité de désengager ou de désactiver les systèmes déployés qui démontrent un comportement involontaire."

L’opérationnalisation de ce principe nécessite :

  • L’investissement dans le modèle d’IA ne s’arrête pas au déploiement. Consacrez des ressources pour garantir que les modèles continuent de se comporter comme souhaité et attendu. Évaluez et atténuez les risques tout au long du cycle de vie de l’IA, et pas seulement après le déploiement.
  • Désigner une partie responsable qui a un mandat financé pour effectuer le travail de gouvernance. Ils doivent avoir du pouvoir.
  • Investissez dans la communication, le développement communautaire et l’éducation. Tirer parti d’outils tels que watsonx.gouvernance à surveiller les systèmes d'IA.
  • Capturez et gérez l’inventaire des modèles d’IA comme décrit ci-dessus.
  • Déployez des mesures de cybersécurité sur tous les modèles.

IBM est à l'avant-garde de l'avancement d'une IA digne de confiance

IBM est à l'avant-garde de la promotion de principes d'IA fiables et est un leader d'opinion en matière de gouvernance des systèmes d'IA depuis leur création. Nous suivons des principes de confiance et de transparence de longue date qui indiquent clairement que le rôle de l’IA est d’augmenter, et non de remplacer, l’expertise et le jugement humains.

En 2013, IBM s'est lancé dans l'aventure de l'explicabilité et de la transparence dans l'IA et l'apprentissage automatique. IBM est un leader en matière d'éthique de l'IA, nommant un leader mondial de l'éthique de l'IA en 2015 et créant un comité d'éthique de l'IA en 2018. Ces experts veillent à ce que nos principes et nos engagements soient respectés dans nos engagements commerciaux mondiaux. En 2020, IBM a fait don de ses boîtes à outils d'IA responsable à la Linux Foundation pour aider à construire l'avenir d'une IA juste, sécurisée et digne de confiance.

IBM dirige les efforts mondiaux visant à façonner l'avenir de l'IA responsable et des mesures, normes et bonnes pratiques de l'IA éthique :

  • Engagé avec l'administration du président Biden sur l'élaboration de son décret exécutif sur l'IA
  • Divulgation/dépôt de plus de 70 brevets pour une IA responsable
  • Le PDG d'IBM, Arvind Krishna, copréside le comité directeur de la Global AI Action Alliance lancé par le Forum économique mondial (WEF),
  • L'Alliance s'efforce d'accélérer l'adoption d'une intelligence artificielle inclusive, transparente et fiable à l'échelle mondiale.
  • Co-auteur de deux articles publiés par le WEF sur l'IA générative sur la création de valeur et le développement de systèmes et de technologies sûrs.
  • Co-président du comité Trusted AI Linux Foundation AI
  • Contribution au cadre de gestion des risques liés à l'IA du NIST ; s'engager avec le NIST dans le domaine des métriques, des normes et des tests d'IA

Développer une IA responsable est un défi à multiples facettes car il exige que les valeurs humaines soient reflétées de manière fiable et cohérente dans notre technologie. Mais cela en vaut la peine. Nous pensons que les lignes directrices ci-dessus peuvent aider le DoD à opérationnaliser une IA fiable et à remplir sa mission.

Pour plus d'informations sur la façon dont IBM peut vous aider, veuillez visiter Conseil en gouvernance de l'IA | IBM

Créer une approche holistique de gouvernance de l’IA

Plus de ressources:

Cet article a-t-il été utile?

OuiNon


Plus de Intelligence artificielle




Libérer des avantages financiers grâce à la monétisation des données

6 min lire - La monétisation des données permet aux organisations d'utiliser leurs actifs de données et leurs capacités d'intelligence artificielle (IA) pour créer une valeur économique tangible. Ce système d'échange de valeurs utilise des produits de données pour améliorer les performances commerciales, acquérir un avantage concurrentiel et relever les défis de l'industrie en réponse à la demande du marché. Les avantages financiers comprennent une augmentation des revenus grâce à la création de modèles commerciaux industriels adjacents, l'accès à de nouveaux marchés pour établir davantage de sources de revenus et l'augmentation des revenus existants. L'optimisation des coûts peut être obtenue grâce à une combinaison d'améliorations de la productivité, d'infrastructure…




Réduire les défauts et les temps d'arrêt grâce aux inspections automatisées basées sur l'IA

3 min lire - Un grand constructeur automobile multinational responsable de la production de millions de véhicules chaque année, s'est engagé avec IBM pour rationaliser ses processus de fabrication grâce à des inspections transparentes et automatisées basées sur des données en temps réel et l'intelligence artificielle (IA). En tant que constructeur automobile, notre client a le devoir inhérent de fournir des produits de haute qualité. Idéalement, ils doivent découvrir et réparer tout défaut bien avant que l’automobile n’atteigne le consommateur. Ces défauts sont souvent coûteux, difficiles à identifier et présentent une myriade de risques importants pour la satisfaction client.…




Dévoilement de la technologie d'IA transformatrice derrière les commandes Watsonx

4 min lire - Vous vous dirigez vers votre service au volant préféré pour prendre des frites et un cheeseburger. C'est une commande simple et lorsque vous arrivez, vous remarquez qu'il n'y a pas beaucoup de file d'attente. Qu'est ce qui pourrait aller mal? Beaucoup. Le restaurant se trouve à proximité d'une autoroute très fréquentée avec un bruit de circulation rugissant et des avions qui volent bas au-dessus de leur tête à l'approche de l'aéroport voisin. Il y a du vent. La chaîne stéréo sonne dans la voiture derrière vous et le client dans la voie suivante essaie de commander chez…

Bulletins d'information IBM

Recevez nos newsletters et nos mises à jour thématiques qui fournissent les dernières idées en matière de leadership éclairé et d'informations sur les tendances émergentes.

S'abonner

Plus de newsletters

spot_img

Dernières informations

spot_img