Logo Zéphyrnet

RAND Corp. trouve le DoD «significativement contesté» dans la posture de l'IA 

Date :

Un nouveau rapport de RAND Corp. constate que la posture de l'IA du DoD américain est confrontée à des défis liés aux données et aux tests qui garantissent les performances et la sécurité. (Crédit: Getty Images)  

Par le personnel d'IA Trends  

Dans une évaluation mise à jour récemment publiée de la posture du département américain de la Défense (DoD) sur l'intelligence artificielle, des chercheurs de RAND Corp.a constaté que «malgré certains signes positifs, la posture du DoD est considérablement remise en question dans toutes les dimensions» de l'évaluation. 

Les chercheurs du RAND ont été invités par le Congrès, dans le cadre de la loi sur l'autorisation de la défense nationale (NDAA) de 2019, et le directeur du Centre conjoint d'intelligence artificielle du DoD (JAIC), à aider à répondre à la question: Le DoD est-il prêt à tirer parti des technologies de l'IA et à tirer parti du potentiel qui leur est associé, ou doit-il prendre des mesures majeures pour se positionner pour utiliser ces technologies de manière efficace et sûre et en accroître l'utilisation? » 

Le terme intelligence artificielle a été inventé pour la première fois en 1956 lors d'une conférence au Dartmouth College qui présentait un programme conçu pour imiter les capacités de réflexion humaine. Presque immédiatement après, la Defense Advanced Research Projects Agency (DARPA) (alors connue sous le nom de Advanced Research Projects Agency [ARPA]), la branche de recherche de l'armée, a lancé plusieurs axes de recherche visant à appliquer les principes de l'IA aux défis de la défense.   

Danielle Tarraf, scientifique principale de l'information, RAND Corp.

Depuis les années 1950, l'IA - et sa sous-discipline d'apprentissage automatique (ML) - en est venue à signifier beaucoup de choses différentes pour différentes personnes, a déclaré le rapport, dont l'auteur principal est Danielle C. Tarraf, informaticienne senior à RAND et professeur à la RAND Graduate School. (RAND Corp. est un groupe de réflexion américain à but non lucratif créé en 1948 pour proposer des recherches et des analyses aux forces armées américaines.)    

Par exemple, le NDAA 2019 a cité jusqu'à cinq définitions de l'IA. «Aucun consensus n'a émergé sur une définition commune à partir des dizaines d'entretiens menés par l'équipe RAND pour son rapport au Congrès», indique le rapport RAND.  

Les chercheurs de RAND ont décidé de rester flexibles et de ne pas être liés par des définitions précises. Au lieu de cela, ils ont essayé de répondre à la question de savoir si le DoD est en mesure de construire ou d'acquérir, de tester, de faire la transition et de maintenir - à grande échelle - un ensemble de technologies relevant largement de l'IA? Et sinon, que devrait faire le DoD pour y arriver? Compte tenu des implications de l'IA pour les décideurs stratégiques du DoD, les chercheurs se sont concentrés sur trois éléments et sur leur interaction:  

  • l'espace des technologies et des capacités 
  • le spectre des applications DoD AI 
  • l'espace d'investissement et l'horizon temporel.

Alors que les algorithmes sous-tendent la plupart des solutions d'IA, l'intérêt et le battage médiatique sont alimentés par les progrès de l'IA, comme l'apprentissage en profondeur. Cela nécessite de grands ensembles de données, et qui ont tendance à être très spécifiques aux applications pour lesquelles ils ont été conçus, dont la plupart sont commerciaux. Se référant aux procédures de vérification, de validation, de test et d'évaluation de l'IA (VVT & E) essentielles à la fonction des logiciels dans le DoD, les chercheurs ont déclaré: «VVT & E reste très difficile dans tous les domaines pour toutes les applications d'IA, y compris les applications militaires critiques pour la sécurité.»  

Les chercheurs ont divisé les applications d'IA pour le DoD en trois groupes:  

  • IA d'entreprise, y compris des applications telles que la gestion des dossiers de santé dans les hôpitaux militaires dans des environnements bien contrôlés;  
  • AI de soutien à la mission, y compris des applications telles que l'équipe inter-fonctionnelle Algorithmic Warfare (également connue sous le nom de Projet Maven), qui vise à utiliser l'apprentissage automatique pour aider les humains à analyser de grands volumes d'images à partir de données vidéo collectées dans le théâtre de bataille par des drones, et;  
  • IA opérationnelle, y compris les applications de l'IA intégrées dans des systèmes d'armes qui doivent faire face à des environnements dynamiques et antagonistes, et qui ont des implications importantes en cas de défaillance des blessés. 

Des objectifs réalistes doivent être définis pendant combien de temps l'IA devra passer de la démonstration de ce qui est possible à des implémentations à grande échelle sur le terrain. L'analyse de l'équipe RAND suggère des déploiements à grande échelle dans:   

  • à court terme (jusqu'à cinq ans) pour l'IA d'entreprise 
  • moyen terme (cinq à dix ans) pour la plupart des IA de soutien aux missions, et  
  • terme lointain (plus de dix ans) pour la plupart des applications d'IA opérationnelles. 

L'équipe RAND voit les défis suivants pour l'IA au DoD:  

  • Organisationnellement, la stratégie actuelle d'IA du DoD manque à la fois de références et de paramètres pour évaluer les progrès. Et le JAIC n'a pas reçu l'autorité, les ressources et la visibilité nécessaires pour faire évoluer l'IA et son impact à l'échelle du DoD. 
  • Données font souvent défaut et, lorsqu'ils existent, ils manquent souvent de traçabilité, de compréhensibilité, d'accessibilité et d'interopérabilité. 
  • L'état actuel de VVT et E car les technologies d'IA ne peuvent pas garantir les performances et la sécurité des systèmes d'IA, en particulier ceux qui sont critiques pour la sécurité. 
  • Le DoD manque de mécanismes clairs pour cultiver, suivre et cultiver Talent IA, un défi qui ne fera qu'augmenter avec la concurrence de plus en plus serrée avec le monde universitaire, le monde commercial et d'autres types d'espaces de travail pour les personnes ayant les compétences et la formation nécessaires. 
  • CommunicationLes canaux parmi les constructeurs et les utilisateurs de l'IA au sein du DoD sont rares. 

Les chercheurs ont formulé un certain nombre de recommandations pour résoudre ces problèmes. 

Deux domaines de défi abordés  

Deux de ces défis ont été récemment abordés lors d'une réunion organisée par l'AFCEA, l'association professionnelle qui relie les gens de l'armée, du gouvernement, de l'industrie et du milieu universitaire, rapportée dans un compte rendu en FCW. L'organisation s'engage dans «l'échange éthique d'informations» et a des racines dans la guerre civile américaine, selon son site Web.   

Jacqueline Tame est directrice adjointe par intérim du JAIC, dont les années d'expérience comprennent des postes au sein du Comité permanent de sélection permanent de la Chambre sur le renseignement, travaille avec une plate-forme d'analyse de l'IA pour le bureau du secrétaire à la Défense, puis des postes au sein du JAIC. Elle est diplômée du Naval War College et de la LBJ School of Public Affairs.  

Elle a expliqué comment l'IA au DoD se heurtait à des normes culturelles et politiques en conflit avec ses capacités. Par exemple, «Nous avons encore plus de… plusieurs milliers de documents d'orientation sur la classification de sécurité rien qu'au sein du ministère de la Défense.» Le résultat est une prolifération de «propriétaires de données». Elle a commenté: «C'est contraire à l'idée que les données sont un atout stratégique pour le ministère.» 

Elle a utilisé l'exemple de la maintenance prédictive, qui nécessite l'analyse des données provenant de diverses sources pour être efficace, comme un défi d'infrastructure pour le DoD actuellement. «C'est un problème de guerre», a déclaré Tame. «Pour rendre l'IA efficace pour les applications de guerre, nous devons cesser d'y penser de ces manières limitées. 

Jane Pinelis, chef des tests et de l'évaluation, JAIC

Les normes de données doivent être définies et unifiées, a suggéré l'orateur Jane Pinelis, chef des tests et de l'évaluation pour le JAIC. Elle a travaillé au Laboratoire de physique appliquée de l'Université Johns Hopkins, où elle a été impliquée dans la «guerre algorithmique». Elle est également une ancienne combattante du Corps des Marines, où ses affectations comprenaient un poste dans le Warfighting Lab. Elle est titulaire d'un doctorat en statistiques de l'Université du Michigan. 

«Les normes sont des meilleures pratiques élevées et nous n'avons pas nécessairement encore de meilleures pratiques», a déclaré Pinelis. JAIC y travaille, en collectant et en documentant les meilleures pratiques et en dirigeant un groupe de travail dans la communauté du renseignement sur la collecte et le marquage des données. 

La faible disponibilité des données a été un obstacle à l'IA pour le DoD, a-t-elle déclaré. En réponse, le JAIC prépare plusieurs contrats d'attribution pour les tests, l'évaluation et la préparation des données, attendus prochainement.  

Lisez les articles sources et les informations de RAND Corp.. et FCW. 

Source: https://www.aitrends.com/ai-in-government/rand-corp-finds-dod-significantly-challened-in-ai-posture/

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?