Logo Zéphyrnet

L'Europe présente un plan de règles d'IA basées sur les risques pour renforcer la confiance et l'adoption

Date :

Les législateurs de l'Union européenne ont présenté leur proposition basée sur les risques pour réglementer les applications à haut risque de l'intelligence artificielle au sein du marché unique de l'Union.

Le plan comprend des interdictions sur un petit nombre de cas d'utilisation considérés comme trop dangereux pour la sécurité des personnes ou les droits fondamentaux des citoyens de l'UE, tels qu'un système de notation du crédit social à la chinoise ou des techniques de manipulation du comportement activées par l'IA qui peuvent causer des problèmes physiques ou psychologiques. préjudice. Il existe également des restrictions sur l'utilisation par les forces de l'ordre de la surveillance biométrique dans les lieux publics, mais avec des exemptions très étendues.

La plupart des utilisations de l'IA ne seront soumises à aucune réglementation (et encore moins à une interdiction) dans le cadre de la proposition. Mais un sous-ensemble d'utilisations dites « à haut risque » sera soumis à des exigences réglementaires spécifiques, à la fois ex ante (avant) et ex post (après) la mise sur le marché.

Il existe également des exigences de transparence pour certains cas d'utilisation de l'IA - tels que les chatbots et les deepfakes - où les législateurs de l'UE pensent que le risque potentiel peut être atténué en informant les utilisateurs qu'ils interagissent avec quelque chose d'artificiel.

La loi envisagée est destinée à s'appliquer à toute entreprise vendant un produit ou un service d'IA dans l'UE, et pas seulement aux entreprises et aux particuliers basés dans l'UE - ainsi, comme avec le régime de protection des données de l'UE, il aura une portée extraterritoriale.

L'objectif primordial des législateurs de l'UE est de renforcer la confiance du public dans la manière dont l'IA est mise en œuvre pour aider à stimuler l'adoption de la technologie. Les hauts fonctionnaires de la Commission disent vouloir développer un «écosystème d'excellence» aligné sur les valeurs européennes.

« Aujourd'hui, nous visons à faire de l'Europe une classe mondiale dans le développement d'une intelligence artificielle sécurisée, fiable et centrée sur l'humain, et dans son utilisation », a déclaré la vice-présidente exécutive de la Commission, Margrethe Vestager, annonce adoption de la proposition lors d'une conférence de presse.

«D'une part, notre réglementation aborde les risques humains et sociétaux associés à des usages spécifiques de l'IA. C'est pour créer la confiance. D'autre part, notre plan coordonné décrit les mesures nécessaires que les États membres devraient prendre pour stimuler les investissements et l'innovation. Pour garantir l'excellence. Tout cela, pour garantir que nous renforçons l'adoption de l'IA à travers l'Europe. »

Dans le cadre de la proposition, des exigences obligatoires sont attachées à une catégorie «à haut risque» d'applications de l'IA, c'est-à-dire celles qui présentent un risque clair pour la sécurité ou menacent d'empiéter sur Droits fondamentaux de l'UE (comme le droit à la non-discrimination).

Des exemples de cas d'utilisation d'IA à haut risque qui seront soumis au plus haut niveau de réglementation sur l'utilisation sont présentés à l'annexe 3 du règlement - que la Commission a déclaré qu'elle aura le pouvoir d'étendre par des actes délégués, à mesure que les cas d'utilisation de L'IA continue de se développer et les risques évoluent.

Pour l'instant, les exemples à haut risque cités entrent dans les catégories suivantes: identification biométrique et catégorisation des personnes physiques; Gestion et exploitation des infrastructures essentielles; Éducation et formation professionnelle; Emploi, gestion des travailleurs et accès au travail indépendant; Accès et jouissance des services privés essentiels et des services et avantages publics; Forces de l'ordre; Gestion des migrations, de l'asile et des contrôles aux frontières; Administration de la justice et processus démocratiques.

Les utilisations militaires de l'IA sont spécifiquement exclues du champ d'application car le règlement est axé sur le marché intérieur de l'Union.

Les fabricants d'applications à haut risque devront se conformer à un ensemble d'obligations ex ante avant de mettre leur produit sur le marché, notamment en ce qui concerne la qualité des ensembles de données utilisés pour former leurs IA et un niveau de surveillance humaine non seulement sur la conception mais sur l'utilisation. du système - ainsi que les exigences ex post en cours, sous la forme d'une surveillance post-commercialisation.

D'autres exigences incluent la nécessité de créer des enregistrements du système d'IA pour permettre les contrôles de conformité et également pour fournir des informations pertinentes aux utilisateurs. La robustesse, la précision et la sécurité du système d'IA seront également soumises à une réglementation.

Les responsables de la Commission ont suggéré que la grande majorité des applications de l'IA ne relèveraient pas de cette catégorie hautement réglementée. Les fabricants de ces systèmes d'IA à «faible risque» seront simplement encouragés à adopter des codes de conduite (non juridiquement contraignants) sur l'utilisation.

Les sanctions pour infraction aux règles sur les interdictions de cas d'utilisation spécifiques de l'IA ont été fixées à un maximum de 6% du chiffre d'affaires annuel mondial ou 30 millions d'euros (selon le montant le plus élevé). Alors que les violations des règles liées aux applications à haut risque peuvent aller jusqu'à 4% (soit 20 M €).

La mise en œuvre impliquera plusieurs agences dans chaque État membre de l'UE - la proposition prévoyant que la surveillance soit exercée par les agences existantes (pertinentes), telles que les organismes de sécurité des produits et les agences de protection des données.

Cela soulève des questions immédiates sur les ressources adéquates des organismes nationaux, compte tenu du travail supplémentaire et de la complexité technique auxquels ils seront confrontés pour faire respecter les règles de l'IA ; et aussi comment éviter les goulots d'étranglement dans l'application de la loi dans certains États membres. (Notamment, le règlement général sur la protection des données de l'UE est également supervisé au niveau des États membres et souffre d'un manque d'application uniformément vigoureuse.)

Une base de données à l'échelle de l'UE sera également mise en place pour créer un registre des systèmes à haut risque mis en œuvre dans le bloc (qui sera géré par la Commission).

Un nouvel organe, appelé le Conseil européen de l'intelligence artificielle (EAIB), sera également mis en place pour soutenir une application cohérente du règlement - à l'image du Comité européen de la protection des données qui propose des conseils pour l'application du RGPD.

Conformément aux règles sur certaines utilisations de l'IA, le plan comprend des mesures visant à coordonner le soutien des États membres de l'UE au développement de l'IA, dans le cadre d'une mise à jour de 2021 du plan coordonné de l'UE de 2018, par exemple en établissant des bacs à sable réglementaires et en cofinançant les tests et l'expérimentation. Des installations pour aider les startups et les PME à développer et à accélérer les innovations alimentées par l'IA ; et en établissant un réseau de pôles européens d'innovation numérique destinés à servir de "guichets uniques" pour aider les PME et les administrations publiques à devenir plus compétitives dans ce domaine - et via la perspective d'un financement européen ciblé pour soutenir l'IA locale.

Le commissaire au marché intérieur, Thierry Breton, a déclaré que l'investissement est un élément crucial du plan. « Dans le cadre de notre programme Europe numérique et Horizon Europe, nous allons libérer un milliard d'euros par an. Et en plus de cela, nous voulons générer des investissements privés et un investissement collectif à l'échelle de l'UE de 20 milliards d'euros par an au cours de la prochaine décennie - la "décennie numérique" comme nous l'avons appelée », a-t-il déclaré lors de la conférence de presse d'aujourd'hui. "Nous voulons également disposer de 140 milliards d'euros qui financeront les investissements numériques dans le cadre de Next Generation EU [COVID-19 recovery fund] - et qui seront en partie consacrés à l'IA."

La définition des règles pour l'IA a été une priorité clé pour la présidente de l'UE, Ursula von der Leyen, qui a pris ses fonctions à la fin de 2019. Un livre blanc a été publié année dernière, suite à un Stratégie AI pour l'UE 2018 - et Vestager a déclaré que la proposition d'aujourd'hui était l'aboutissement de trois ans de travail.

Breton a suggéré que fournir des conseils aux entreprises pour appliquer l'IA leur donnera une sécurité juridique et un avantage pour l'Europe.

"La confiance... nous pensons qu'elle est d'une importance vitale pour permettre le développement que nous voulons de l'intelligence artificielle", a-t-il déclaré. [Les applications de l'IA] doivent être fiables, sûres, non discriminatoires - c'est absolument crucial - mais bien sûr, nous devons également être en mesure de comprendre exactement comment ces applications fonctionneront.

«Ce dont nous avons besoin, c'est d'avoir des conseils. Surtout dans une nouvelle technologie… Nous sommes, nous serons, le premier continent où nous donnerons des lignes directrices - nous dirons 'hé, c'est vert, c'est vert foncé, c'est peut-être un peu orange et c'est interdit' . Alors maintenant, si vous souhaitez utiliser des applications d'intelligence artificielle, allez en Europe! Vous saurez quoi faire, vous saurez le faire, vous aurez des partenaires qui comprennent plutôt bien et, au passage, vous viendrez aussi sur le continent où vous aurez le plus grand nombre de données industrielles créées sur la planète pour les dix prochaines années.

«Alors venez ici - parce que l'intelligence artificielle est une question de données - nous vous donnerons les directives. Nous aurons également les outils pour le faire et l'infrastructure. »

Une version de la proposition d'aujourd'hui fuite la semaine dernière - menant à appels des députés européens à renforcer le plan tels que en interdisant la surveillance biométrique à distance dans les lieux publics.

Dans le cas où la proposition finale traiterait la surveillance biométrique à distance comme une application à risque particulièrement élevé de l'IA - et il y a une interdiction en principe de l'utilisation de la technologie en public par les forces de l'ordre.

Toutefois, l’utilisation n’est pas totalement interdite, à quelques exceptions près où les forces de l’ordre pourraient encore en faire usage, sous réserve d’une base juridique valide et d’une surveillance appropriée.

Protections attaquées comme trop faibles

Les réactions à la proposition de la Commission comprenaient de nombreuses critiques concernant des exemptions trop larges pour l'utilisation par les forces de l'ordre de la surveillance biométrique à distance (comme la technologie de reconnaissance faciale) ainsi que des préoccupations selon lesquelles les mesures du règlement visant à lutter contre le risque de discrimination des systèmes d'IA assez loin.

L'ONG de justice pénale Fair Trials a déclaré que des améliorations radicales sont nécessaires si le règlement doit contenir des garanties significatives en matière de justice pénale. Commenter dans une déclaration, Griff Ferris, responsable juridique et politique de l'ONG, a déclaré: «Les propositions de l'UE nécessitent des changements radicaux pour empêcher le câblage de la discrimination dans les résultats de la justice pénale, protéger la présomption d'innocence et garantir responsabilité significative de l'IA dans la justice pénale. 

«La législation ne dispose d'aucune garantie contre la discrimination, tandis que la vaste exemption pour la« sauvegarde de la sécurité publique »sape complètement le peu de garanties qui existent en matière de justice pénale. Le cadre doit inclure des garanties et des restrictions rigoureuses pour prévenir la discrimination et protéger le droit à un procès équitable. Cela devrait inclure la restriction de l'utilisation de systèmes qui tentent de profiler les gens et de prédire le risque de criminalité. » 

L'Union des libertés civiles pour l'Europe (Liberties) a également dénoncé des lacunes qui, selon l'ONG, permettraient aux États membres de l'UE de contourner les interdictions d'utilisation problématique de l'IA.

«Il y a beaucoup trop d'utilisations problématiques de la technologie qui sont autorisées, comme l'utilisation d'algorithmes pour prévoir la criminalité ou pour faire évaluer par des ordinateurs l'état émotionnel des personnes aux contrôles aux frontières, qui constituent toutes deux de graves risques pour les droits de l'homme et constituent une menace. aux valeurs de l'UE », a averti Orsolya Reich, responsable du plaidoyer, dans un communiqué. «Nous sommes également préoccupés par le fait que la police pourrait utiliser la technologie de reconnaissance faciale de manière à mettre en danger nos droits et libertés fondamentaux.»

Patrick Breyer, l'eurodéputé pirate allemand, a averti que la proposition ne respecte pas la norme de respect des "valeurs européennes". Le député européen était l'un des 40 à avoir signé une lettre à la Commission la semaine dernière avertissant alors qu'une version divulguée de la proposition n'allait pas assez loin dans la protection des droits fondamentaux.

«Nous devons saisir l'opportunité de laisser l'Union européenne mettre l'intelligence artificielle en conformité avec les exigences éthiques et les valeurs démocratiques. Malheureusement, la proposition de la Commission ne parvient pas à nous protéger des dangers de la justice de genre et de l'égalité de traitement de tous les groupes, tels que les systèmes de reconnaissance faciale ou d'autres types de surveillance de masse », a déclaré Breyer dans un communiqué réagissant à la proposition formelle aujourd'hui.

«La technologie de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics sape notre liberté et menace nos sociétés ouvertes. La proposition de la Commission européenne amènerait l'utilisation à haut risque de la reconnaissance faciale automatique dans les espaces publics à l'ensemble de l'Union européenne, contrairement à la volonté de la majorité de notre peuple. Les exigences procédurales proposées ne sont qu'un simple écran de fumée. Nous ne pouvons pas permettre la discrimination de certains groupes de personnes et la fausse incrimination d’innombrables personnes par ces technologies »

Le groupe européen de défense des droits numériques, Edri, a également souligné ce qu'il a qualifié de "lacune inquiétante" dans la proposition concernant les "technologies discriminatoires et de surveillance". « Le règlement laisse une trop grande marge d'autorégulation aux entreprises qui profitent de l'IA. Les personnes, et non les entreprises, doivent être au centre de cette réglementation », a déclaré Sarah Chander, responsable principale des politiques sur l'IA chez Edri, dans un communiqué.

Access Now a soulevé des préoccupations similaires dans un réaction initiale, affirmant que les interdictions proposées sont "trop ​​​​limitées", et que le cadre juridique "ne fait rien pour arrêter le développement ou le déploiement d'une multitude d'applications d'IA qui portent gravement atteinte au progrès social et aux droits fondamentaux".

Mais le groupe des droits numériques a salué les mesures de transparence telles que la base de données accessible au public des systèmes à haut risque à établir – et le fait que le règlement inclut certaines interdictions (bien qu'elles ne vont pas assez loin).

Le groupe de coordination des droits des consommateurs, le BEUC, a également rapidement critiqué la proposition, qualifiant la proposition de la Commission de faible en matière de protection des consommateurs, car elle se concentre sur la réglementation "d'une gamme très limitée d'utilisations et de problèmes liés à l'IA".

«La Commission européenne aurait dû se concentrer davantage sur l'aide aux consommateurs pour faire confiance à l'IA dans leur vie quotidienne», a déclaré Monique Goyens, directrice générale de Beuc, dans un communiqué: «Les gens devraient pouvoir faire confiance à n'importe quel produit ou service alimenté par l'intelligence artificielle, que ce soit «à haut risque», «à risque moyen» ou «à faible risque». L'UE doit faire plus pour garantir aux consommateurs des droits exécutoires, ainsi qu'un accès à des recours et des recours en cas de problème. »

De nouvelles règles sur machinerie font également partie du paquet législatif — avec des règles de sécurité adaptées destinées à tenir compte des changements alimentés par l'IA (la Commission déclarant qu'elle souhaite que les entreprises qui intègrent l'IA dans les machines n'aient à effectuer qu'une seule évaluation de la conformité pour se conformer au cadre) .

Le groupe de l'industrie technologique Dot Europe (anciennement Edima) - dont les membres incluent Airbnb, Apple, Facebook, Google, Microsoft et d'autres géants de la plate-forme - a accueilli la publication de la proposition de la Commission sur l'IA, mais n'avait pas encore formulé de remarques détaillées au moment de la rédaction, indiquant qu'elle était en train de formuler sa position.

Alors que le groupe de défense des startups, Allied For Startups, nous a dit qu'il avait également besoin de temps pour étudier les détails de la proposition, Benedikt Blomeyer, son directeur des politiques européennes, a mis en garde contre le risque potentiel de surcharger les startups. "Notre première réaction est que si cela est mal fait, cela pourrait augmenter considérablement le fardeau réglementaire imposé aux startups", a-t-il déclaré. "La question clé de cette proposition sera de savoir si elle est proportionnée aux risques potentiels que pose l'IA tout en garantissant que les startups européennes puissent également profiter de ses avantages potentiels".

D'autres groupes de pression technologiques n'ont pas attendu pour passer à l'attaque à la perspective d'un emballage sur mesure de l'IA - affirmant que le règlement « mettrait à genoux l'industrie naissante de l'IA de l'UE avant qu'elle ne puisse apprendre à marcher », comme l'explique une technologie basée à Washington et à Bruxelles. le groupe de réflexion sur les politiques (le Centre pour l'innovation des données) l'a dit.

L'association professionnelle CCIA a également mis en garde rapidement contre les «formalités administratives inutiles pour les développeurs et les utilisateurs», ajoutant que réglementation ne fera pas à elle seule de l'UE un chef de file AI.

La proposition d'aujourd'hui lance le début de nombreux débats dans le cadre du processus de coréglementation de l'UE, le Parlement européen et les États membres via le Conseil de l'UE devant avoir leur mot à dire sur le projet - ce qui signifie que beaucoup de choses pourraient changer avant que les institutions de l'UE ne parviennent à un accord sur le projet de loi. forme finale d'un règlement paneuropéen sur l'IA.

Les commissaires ont refusé de donner un calendrier pour l'adoption de la législation aujourd'hui, affirmant seulement qu'ils espéraient que les autres institutions de l'UE s'engageraient immédiatement et que le processus pourrait être fait dès que possible. Il pourrait néanmoins s'écouler plusieurs années avant que le règlement ne soit ratifié et entre en vigueur.

Ce rapport a été mis à jour avec les réactions à la proposition de la Commission

Coinsmart. Beste Bitcoin-Börse en Europe
Source : https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

spot_img

Dernières informations

spot_img