Logo Zéphyrnet

La CCC répond à la RFC de l'OMB sur l'avancement de la gouvernance, de l'innovation et de la gestion des risques pour l'utilisation de l'IA par les agences. Projet de politique » Blog de la CCC

Date :



Décembre 6th, 2023 /
in CCC /
by
Haley Griffon

Hier, le 5 décembre, la CCC a soumis une réponse à la demande du Bureau de la gestion et du budget (OMB). Demande de commentaires (RFC) sur l'avancement de la gouvernance, de l'innovation et de la gestion des risques pour l'utilisation par les agences de l'intelligence artificielle. Projet de mémorandum. Les membres du Conseil du CCC et le personnel du CCC suivants ont rédigé la réponse : David Danks (Université de Californie, San Diego), Haley Griffin (Computing Community Consortium), David Jensen (Université du Massachusetts Amherst), Chandra Krintz (Université de Californie à Santa Barbara), Daniel Lopresti (Université Lehigh), Rajmohan Rajaraman (Université Northeastern), Matthew Turk (Institut technologique Toyota de Chicago) et Holly Yanco (Université du Massachusetts Lowell).

L'OMB a cherché des réponses à de nombreuses questions spécifiques concernant leur mémorandum proposé qui mettrait en œuvre « de nouvelles exigences d’agence dans les domaines de la gouvernance, de l’innovation et de la gestion des risques de l’IA, et ordonnerait aux agences d’adopter des pratiques minimales spécifiques de gestion des risques pour les utilisations de l’IA qui ont un impact sur les droits et la sécurité du public ».

En réponse à une question de la RFC, « Comment l'OMB peut-elle faire progresser au mieux l'innovation responsable en matière d'IA ? », CCC a répondu :

  • Faites appel à des compétences extérieures à celles des agences et des fournisseurs, peut-être par l'intermédiaire de personnes extérieures siégeant aux conseils consultatifs des agences, qu'il s'agisse d'experts techniques ou de citoyens ordinaires. Le travail de ces conseils doit être observable et transparent dans la mesure du possible (afin que le public puisse donner son avis si nécessaire).
  • Donnez la priorité à ce que les résultats de l’utilisation de l’IA soient dignes de confiance, équitables et fiables. S’il est important d’utiliser des données fiables et propres pour développer des systèmes d’IA, les résultats et les impacts sur les individus et les communautés doivent être une priorité, d’autant plus que même des données fiables peuvent être utilisées à mauvais escient. 
  • Mettre en œuvre des mécanismes de surveillance qui reconnaissent que même si un grand nombre de personnes ont utilisé un système d’IA pendant un certain temps et n’ont encore signalé aucun problème, cela ne signifie pas que le système d’IA est sûr ou fiable. Des cas extrêmes rares mais percutants sont courants dans tous les domaines de l’informatique.
  • Réévaluez un système AI/ML chaque fois qu’une mise à jour logicielle est mise en œuvre ou qu’un ensemble de données est modifié. Nous reconnaissons qu'il existe des questions difficiles quant à savoir quand une mise à jour d'un logiciel ou d'un ensemble de données est suffisamment importante pour nécessiter une réévaluation. Nous ne proposons pas de règle absolue, mais nous estimons que tout critère de ce type devrait pécher par excès de réévaluation plutôt que pas assez.
  • Encouragez l’évaluation et les tests indépendants de tous les systèmes d’IA/ML afin de ne pas devenir dépendant de fournisseurs qui peuvent utiliser des critères différents.
  • Planifiez et préparez-vous activement aux impacts délétères imprévus, car le comportement de nombreux systèmes d’IA reste imprévisible et complexe.
  • Publier des mesures et des raisons pour déterminer qu’une IA n’a ni « d’impact sur la sécurité » ni « d’impact sur les droits ». Le public devrait avoir accès à ces mesures, étant donné que les entreprises sont fortement incitées à affirmer que leurs systèmes n'ont aucun impact sur la sécurité ou sur les droits, afin de minimiser les contrôles.
  • Utilisez une caractérisation plus fluide d’un système d’IA, car l’impact d’une telle technologie peut changer rapidement et doit être souvent reconsidéré.
  • Encourager et soutenir l’examen public des inventaires de cas d’utilisation de l’IA publiés par les agences. Il est toujours possible qu'ils choisissent d'afficher le travail dont ils savent qu'il plaira au public au lieu d'un échantillon aléatoire/moyen. 
  • Exiger que les cas d'utilisation de l'IA soient publiés avec suffisamment de détails et, le cas échéant, des données représentatives afin que des experts externes indépendants puissent évaluer les risques potentiels et fournir des commentaires constructifs pour l'amélioration continue des déploiements d'IA. 

Tout au long de la réponse, les auteurs soulignent également que parfois les solutions d'IA non génératives sont plus efficaces que celles d'IA générative, qu'il doit y avoir une structure transparente et solide sur la manière dont les différents organes de gouvernance de l'IA des différentes agences collaboreront, et qu'il devrait y avoir un recours clair. mécanisme si quelqu’un a l’impression d’avoir été affecté négativement par l’utilisation de l’IA. Lire la réponse complète de CCC ici.

La CCC répond à la RFC de l'OMB sur l'avancement de la gouvernance, de l'innovation et de la gestion des risques pour l'utilisation par les agences de l'IA. Projet de politique

spot_img

Dernières informations

spot_img