Logo Zéphyrnet

Le patron de l'IA du Pentagone recherche une « confiance justifiée » pour amener la technologie au combat

Date :

Le responsable de l'intelligence numérique et artificielle du Pentagone, Craig Martell, s'est dit alarmé par le potentiel des systèmes d'intelligence artificielle générative comme ChatGPT à tromper et semer la désinformation. Son discours sur la technologie lors de la convention DefCon sur les hackers en août a été un énorme succès. Mais il est tout sauf aigre à l’égard d’une IA fiable.

Pas un soldat mais un data scientist, Martell a dirigé l'apprentissage automatique dans des entreprises telles que LinkedIn, Dropbox et Lyft avant d'accepter ce poste l'année dernière.

Rassembler les données de l'armée américaine et déterminer quelle IA est suffisamment fiable pour être utilisée au combat constitue un défi de taille dans un monde de plus en plus instable où de nombreux pays se précipitent pour développer des armes autonomes mortelles.

L'interview a été modifiée pour plus de longueur et de clarté.

-

Q : Quelle est votre mission principale ?

R : Notre travail consiste à faire passer l’avantage décisionnel de la salle de réunion au champ de bataille. Je ne considère pas qu'il soit de notre devoir de nous attaquer à quelques missions particulières, mais plutôt de développer les outils, les processus, l'infrastructure et les politiques qui permettent au ministère dans son ensemble de se développer.

Q : L’objectif est donc la domination mondiale de l’information ? De quoi avez-vous besoin pour réussir ?

R : Nous arrivons enfin à une guerre centrée sur les réseaux : comment acheminer les bonnes données au bon endroit et au bon moment. Il existe une hiérarchie de besoins : des données de qualité en bas, des analyses et des mesures au milieu, et l'IA en haut. Pour que cela fonctionne, le plus important est des données de haute qualité.

Q : Comment devrions-nous envisager l’utilisation de l’IA dans les applications militaires ?

R : En réalité, tout ce que fait l’IA, c’est compter le passé pour prédire l’avenir. Je ne pense pas vraiment que la vague moderne d’IA soit différente.

Chine, Ukraine

Q : La Chine gagne-t-elle la course aux armements en matière d’IA ?

R : Je trouve cette métaphore quelque peu erronée. Lorsque nous avons eu une course aux armements nucléaires, c’était avec une technologie monolithique. L’IA n’est pas ça. Ce n’est pas non plus une boîte de Pandore. Il s'agit d'un ensemble de technologies que nous appliquons au cas par cas, vérifiant empiriquement si elles sont efficaces ou non.

Q : L’armée américaine utilise la technologie de l’IA pour aider l’Ukraine. Comment aidez-vous ?

R : Notre équipe n’est impliquée en Ukraine que pour aider à créer une base de données sur la manière dont les alliés fournissent leur assistance. Ça s'appelle Skyblue. Nous aidons simplement à garantir que cela reste organisé.

Q : On parle beaucoup des armes létales autonomes, comme les drones d’attaque. Le consensus est que les humains seront finalement réduits à un rôle de supervision – capables d’interrompre des missions mais surtout de ne pas interférer. Cela vous semble correct ?

R : Dans l'armée, nous nous entraînons avec une technologie jusqu'à ce que nous développions une confiance justifiée. Nous comprenons les limites d'un système, savons quand il fonctionne et quand il ne fonctionne pas. Comment cela s’applique-t-il aux systèmes autonomes ? Prends ma voiture. Je fais confiance au régulateur de vitesse adaptatif. En revanche, la technologie qui est censée l’empêcher de changer de voie est terrible. Je n’ai donc pas une confiance justifiée dans ce système et je ne l’utilise pas. Extrapolez cela à l’armée.

"Ailier fidèle"

Q : Le programme « ailier loyal » de l'Armée de l'Air en cours de développement permettrait aux drones de voler en tandem avec des avions de combat pilotés par des humains. La vision par ordinateur est-elle suffisamment bonne pour distinguer un ami d’un ennemi ?

R : La vision par ordinateur a fait des progrès incroyables au cours des 10 dernières années. Que cela soit utile dans une situation particulière est une question empirique. Nous devons déterminer la précision que nous sommes prêts à accepter pour le cas d'utilisation et nous baser sur ces critères – et tester. On ne peut donc pas généraliser. J’aimerais vraiment que nous arrêtions de parler de la technologie comme d’un monolithe et que nous parlions plutôt des capacités que nous souhaitons.

Q : Vous étudiez actuellement l’IA générative et les modèles en grand langage. Quand pourrait-il être utilisé au ministère de la Défense ?

R : Les modèles commerciaux en grand langage ne sont absolument pas contraints de dire la vérité, je suis donc sceptique. Cela dit, grâce à la Task Force Lima (lancé en août), nous étudions plus de 160 cas d’usage. Nous voulons décider ce qui est à faible risque et sûr. Je ne définis pas ici la politique officielle, mais faisons une hypothèse.

Un faible risque pourrait consister à générer des premières ébauches par écrit ou en code informatique. Dans de tels cas, les humains vont éditer ou, dans le cas d’un logiciel, compiler. Cela pourrait également potentiellement fonctionner pour la recherche d’informations, où les faits peuvent être validés pour garantir leur exactitude.

Q : L'un des grands défis de l'IA consiste à recruter et à retenir les talents nécessaires pour tester et évaluer les systèmes et étiqueter les données. Les data scientists en IA gagnent bien plus que ce que le Pentagone paie traditionnellement. Quelle est l’ampleur du problème ?

R : C’est une énorme boîte de Pandore. Nous venons de créer un bureau de gestion des talents numériques et réfléchissons sérieusement à la manière de pourvoir un tout nouvel ensemble de postes. Par exemple, avons-nous vraiment besoin d’embaucher des personnes qui envisagent de rester au ministère de la Défense pendant 20 à 30 ans ? Probablement pas.

Mais et si nous pouvions les obtenir pour trois ou quatre ? Et si nous payions leurs études et qu'ils nous remboursaient en trois ou quatre ans, puis partaient avec cette expérience et se faisaient embaucher par la Silicon Valley ? Nous pensons de manière créative comme ceci. Pourrions-nous, par exemple, faire partie d’un pipeline de diversité ? Recruter dans les HBCU (collèges et universités historiquement noirs) ?

spot_img

Dernières informations

spot_img