Logo Zéphyrnet

Les experts roulent des yeux au comité Lords' AI in Weapon Systems

Date :

Des experts en droit de la technologie et en logiciels se sont affrontés cette semaine avec la Chambre des Lords du Royaume-Uni pour savoir s'il était techniquement possible de confier la responsabilité des décisions sur le champ de bataille à des armes pilotées par l'IA.

Lors de l'audience du comité sur l'IA dans les systèmes d'armes jeudi, les Lords ont eu du mal à convaincre les experts que cela pourrait éventuellement être possible, ou introduit avec prudence, apparemment inquiets de perdre du terrain dans l'introduction de l'IA dans la guerre.

Lord Houghton de Richmond a déclaré que le comité voulait recommander comment progresser dans une sorte de cadre juridique.

L'ancien chef d'état-major de la défense des forces armées britanniques a demandé des commentaires sur la question de savoir si la distinction et la proportionnalité peuvent éventuellement être exercées de manière autonome.

Le professeur Christian Enemark, professeur de relations internationales à l'Université de Southampton, a répondu : "Seuls les humains peuvent faire de la discrimination, seuls les humains peuvent faire de la proportionnalité, et la décharge autonome par une entité non humaine est un non-sens philosophique, sans doute."

Lord Houghton a répondu: "Progressivement, il se peut que les progrès de la technologie fassent progresser l'enveloppe dans laquelle ces types de délégations peuvent être faites."

L'experte en éthique de l'IA Laura Nolan, ingénieur logiciel principal chez le fournisseur d'outils de fiabilité Stanza Systems, a fait valoir que les décisions sur le champ de bataille prises par l'IA ne pouvaient pas évaluer la proportionnalité d'un plan d'action.

"Vous devez connaître la valeur militaire stratégique anticipée de l'action et il n'y a aucun moyen qu'une arme puisse le savoir", a-t-elle déclaré. "Une arme est sur le terrain, regardant peut-être des images, une sorte d'apprentissage automatique et des trucs de perception. Il ne sait rien. Il s'agit simplement de faire quelques calculs, qui n'offrent pas vraiment de rapport avec la valeur militaire.

Nolan a ajouté : « Seul le commandant peut connaître la valeur militaire parce que la valeur militaire d'une attaque particulière n'est pas purement basée sur ce conflit, le contexte local sur le terrain. C'est le contexte stratégique plus large. Il est absolument impossible de poser une arme sur le terrain et de prendre cette décision.

Taniel Yusef, chercheur invité au Centre d'étude du risque existentiel de l'Université de Cambridge, a déclaré que les algorithmes simples de classification des points de données susceptibles d'identifier des cibles pourraient par exemple confondre un chat avec un chien.

"Lorsque cela se produit sur le terrain, vous aurez des gens sur le terrain disant que ces civils ont été tués et vous aurez un rapport de l'arme qui renvoie [that] examine les calculs", a-t-elle déclaré.

« Les maths disent que c'était une cible… c'était une base militaire parce que les maths le disent et nous nous en remettons beaucoup aux maths parce que les maths sont très spécifiques et… les maths seront justes.

« Il y a une différence entre correct et précis. Il y a une différence entre précis et précis. Les calculs seront exacts parce qu'ils ont été correctement codés, mais ils ne seront pas exacts sur le terrain. Et cela me terrifie parce que sans un instrument juridiquement contraignant consacrant ce genre de contrôle humain significatif avec une surveillance à la fin, c'est ce qui nous manquera.

"Il n'est techniquement pas possible [de porter des jugements sur la proportionnalité] parce que vous ne pouvez pas connaître le résultat d'un système [jusqu'à] ce qu'il ait atteint l'objectif que vous avez codé, et vous ne savez pas comment il y est arrivé."

L'homologue conservateur Lord Sarfraz intervint : "L'autre jour, j'ai vu un chien que je pensais être un chat."

"Je suppose que vous n'avez pas tiré", a répondu Yusef. ®

spot_img

Dernières informations

spot_img