Logo Zéphyrnet

Les conseillers du Premier ministre indien affirment que l'IA peut provoquer une « schizophrénie de masse »

Date :

Le Conseil consultatif économique indien auprès du Premier ministre (EACPM) a rédigé un document avertissant que les réglementations mondiales actuelles en matière d'IA risquent d'être inefficaces, et a recommandé de réglementer la technologie avec des tactiques alternatives, comme celles utilisées sur les marchés financiers.

Le Conseil est très préoccupé par l’IA. Son document met en garde : « Grâce à une combinaison de surveillance, de messages persuasifs et de génération de médias synthétiques, l’IA malveillante pourrait contrôler de plus en plus les écosystèmes d’information et même fabriquer des réalités trompeuses personnalisées pour contraindre le comportement humain, induisant ainsi une schizophrénie de masse. »

L'organisation critique l'approche des États-Unis en matière d'IA comme étant trop non interventionniste, celle du Royaume-Uni comme présentant des risques en étant pro-innovation et laissez-faire, et les règles de l'UE en matière d'IA comme étant imparfaites en raison de la division des pays membres du bloc et de l'adoption de priorités et d'applications différentes. mesures d’exécution.

Le document soutient également que la tendance de la Chine à réglementer avec « un système bureaucratique centralisé tout-puissant » est erronée – comme le démontre « l’origine probable du COVID-19 provenant d’une fuite en laboratoire ».

Nous sommes à travers le miroir ici, les amis.

(Pour mémoire, le bureau américain du directeur du renseignement national a trouvé aucune indication que le virus s'est échappé d'un laboratoire chinois.)

Mais nous nous écartons.

Le Conseil suggère que l’IA soit considérée comme un « système auto-organisé décentralisé [qui évolue] à travers des boucles de rétroaction, des transitions de phase et une sensibilité aux conditions initiales » et propose d’autres exemples de tels systèmes – comme les entités non linéaires observées sur les marchés financiers, le comportement des colonies de fourmis. , ou les modèles de trafic.

« Les méthodes traditionnelles échouent en raison de la nature non linéaire et imprévisible de l’IA. Les systèmes d’IA s’apparentent à des systèmes adaptatifs complexes (CAS), dans lesquels les composants interagissent et évoluent de manière imprévisible. » expliqué [PDF] le conseil.

Le Conseil n'aime pas s'appuyer sur des mesures « ex ante », car il est impossible de savoir à l'avance le risque que présentera un système d'IA – son comportement est le résultat d'un trop grand nombre de facteurs.

Le document propose donc à l'Inde d'adopter cinq mesures réglementaires :

  • Mise en place de garde-corps et de cloisons, qui devrait garantir que les technologies d’IA n’excèdent pas leur fonction prévue et n’empiètent pas sur des territoires dangereux – comme la prise de décision en matière d’armement nucléaire. S'ils franchissent d'une manière ou d'une autre ce garde-corps dans un système, les cloisons sont là pour garantir que cela ne se propage pas.
  • Assurer les remplacements manuels et les points d’étranglement d’autorisation qui gardent les humains sous contrôle et assurent leur sécurité grâce à une authentification multifactorielle et un processus d'examen à plusieurs niveaux pour les décideurs humains.
  • Transparence et explicabilité avec des mesures telles que les licences ouvertes pour les algorithmes de base afin de favoriser un environnement propice à l'audit, des audits et des évaluations réguliers et une documentation de développement standardisée.
  • Responsabilité distincte grâce à des protocoles de responsabilité prédéfinis, des rapports d’incidents standardisés et des mécanismes d’enquête.
  • Créer un organisme de réglementation spécialiséqui se voit confier un vaste mandat, adopte une approche basée sur le feedback, surveille et suit le comportement du système d'IA, intègre des systèmes d'alerte automatisés et établit un registre national.

Le Conseil a recommandé de se tourner vers d'autres systèmes CAS pour trouver des idées sur la manière de mettre en œuvre ses idées – principalement les marchés financiers.

« Les enseignements tirés de la gouvernance de systèmes chaotiques tels que les marchés financiers démontrent des approches de régulation réalisables pour des technologies complexes », observe le document, suggérant que les régulateurs dédiés à l'IA pourraient s'inspirer des régulateurs financiers comme le SEBI en Inde ou la SEC aux États-Unis.

Tout comme ces organismes imposent l’arrêt des échanges lorsque les marchés sont en danger, les régulateurs pourraient adopter des « points d’étranglement » similaires auxquels l’IA serait mise au pas. L’information financière obligatoire constitue un bon modèle pour le type de divulgation que les opérateurs d’IA pourraient être tenus de déposer.

Les inquiétudes des auteurs sont alimentées par la conviction que l’omniprésence croissante de l’IA – combinée à l’opacité de son fonctionnement – ​​signifie que les infrastructures critiques, les opérations de défense et de nombreux autres domaines sont menacés.

Parmi les dangers qu’ils soulignent figurent « l’IA incontrôlée », dans laquelle les systèmes pourraient s’améliorer de manière récursive au-delà du contrôle humain et « ne pas s’aligner sur le bien-être humain », et l’effet papillon – un scénario « dans lequel des changements mineurs peuvent entraîner des conséquences importantes et imprévues ».

« Par conséquent, un système de contrôle opaque de l’État sur les algorithmes, les ensembles de formation et les modèles dans le but de maximiser les intérêts peut conduire à des résultats catastrophiques », a averti le Conseil.

Le document note que les réglementations proposées pourraient signifier que certains scénarios doivent être exclus.

« Nous n’autoriserons peut-être jamais un Internet super connecté pour tout », concède le Conseil. Mais il conclut que l’humanité pourrait avoir davantage à gagner d’une réglementation stricte.

« Ceux qui créent des outils d'IA ne se laisseront pas facilement abandonner en raison de conséquences supposées involontaires – insérant ainsi une « peau dans le jeu » ex ante. Les humains conserveront des pouvoirs de dérogation et d’autorisation. Des audits obligatoires réguliers devront garantir l’explicabilité. ®

spot_img

Dernières informations

spot_img