Logo Zéphyrnet

Meilleures pratiques de gouvernance de l’IA – DATAVERSITY

Date :

Sansoen Saengsakaorat / Shutterstock.com

La gouvernance de l’IA vise à promouvoir l’utilisation responsable de l’intelligence artificielle pour le bien de l’humanité. L’intelligence artificielle s’est révélée très utile pour accomplir une grande variété de tâches rapidement et efficacement. Malheureusement, ils peuvent également être utilisés pour soutenir un comportement criminel ou pour créer et diffuser de la désinformation. La gouvernance de l’IA est un effort visant à minimiser l’utilisation de l’intelligence artificielle à des fins criminelles et contraires à l’éthique.

Les progrès récents en matière d’intelligence artificielle – ChatGPT, IA générative, grands modèles de langage – ont incité les dirigeants de l’industrie et du gouvernement à reconnaître la nécessité de lignes directrices et de réglementations éthiques lors de l’utilisation de l’IA.     

L’élaboration de programmes, de réglementations et de lignes directrices sur la gouvernance de l’IA est un effort visant à régir le développement et les applications de la technologie de l’IA. Les écrivains, par exemple, ont exprimé de vives inquiétudes quant à leur remplacement par l'intelligence artificielle, et la Writers Guild of America s'est mise en grève, exigeant une augmentation des salaires et de sévères limitations de l'utilisation de l'intelligence artificielle. L'IA à des fins d'écriture

La capacité de créer des images réalistes (appelée «faux graves") d'individus disant tout ce que souhaite la personne qui contrôle l'IA est devenu une préoccupation pour certains politiciens et groupes politiques. Des demandes de rançon ont été présentées après que le système informatique d'une entreprise a été infecté par un logiciel malveillant généré par l'IA, ou après la recréation de la voix d'une fille au téléphone, sanglotant et informant un parent. elle a été kidnappée.

La gouvernance de l'IA traite de diverses questions cruciales, telles que la confidentialité, préjugés intégrés, usurpation d’identité, vol et fraude. Il est regrettable que des lois et des réglementations soient nécessaires pour protéger les gens contre des individus ayant une éthique faible ou inexistante. Les entreprises doivent s'efforcer de se tenir au courant des lois et réglementations émergentes et de s'assurer que la création et le déploiement de leurs systèmes d'IA sont conformes.

Les organisations peuvent naviguer dans le préoccupations d'ordre éthique soulevées par l’utilisation de l’intelligence artificielle en adhérant à un système de bonnes pratiques de gouvernance de l’IA, promouvant ainsi son utilisation responsable pour le bien de l’humanité.

Efforts du gouvernement pour réglementer l’intelligence artificielle

Aux États-Unis, la liberté d’expression peut être confondue avec la liberté de mentir. La situation est perplexe et rend difficile la création de lois restreignant la désinformation. L’intelligence artificielle peut être un outil remarquablement utile pour aggraver la fraude. 

Afin de développer un système qui protège à la fois les individus et la liberté d’innover, les gouvernements doivent prendre certaines mesures. La première étape consiste à développer une compréhension des problèmes résultant d’une utilisation contraire à l’éthique de l’intelligence artificielle. Aux États-Unis, le Sénat initié Ceci lorsqu'ils ont demandé à plusieurs PDG du secteur technologique d'assister à neuf sessions, la première ayant eu lieu le 13 septembre 2023, pour discuter des préoccupations des PDG concernant l'IA.

Le 30 octobre 2023, le président Biden a publié un commande exécutive concernant les problèmes d’IA. À l’exception d’un mandat qui exige que « les développeurs des systèmes d’IA les plus puissants partagent leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain », le décret traite du « développement » de normes et d’orientations. À l’heure actuelle, les États-Unis n’ont élaboré aucune loi contrôlant ou limitant le comportement de l’intelligence artificielle.  

L’Union européenne (UE) a été l’une des premières organisations gouvernementales à décider qu’elle avait besoin d’une réglementation axée sur l’IA. Le texte final de leur projet de loi, le Loi européenne sur l’IA, est toujours en cours d'élaboration suite à un accord du 8 décembre 2023. Ils ont choisi de développer une série de niveaux de risque, les systèmes d'IA à risque inacceptable étant décrits comme une menace pour les personnes (ces risques seront interdits). Les risques inacceptables comprennent :

  • La manipulation cognitive, délibérée et comportementale des humains ou de groupes vulnérables spécifiques. Un exemple serait les jouets à commande vocale qui encouragent les enfants à adopter des comportements dangereux.
  • Score social, processus de classification des personnes en fonction de leur statut socio-économique, de leur comportement ou de leurs caractéristiques personnelles.
  • L'utilisation de systèmes d'identification biométrique en temps réel et à distance.

La Chine n’a pas les mêmes considérations en matière de liberté d’expression que soutiennent les gouvernements démocratiques. En conséquence, leurs priorités en matière d’IA sont différentes. Les mesures administratives provisoires pour les services d'intelligence artificielle générative a été mis en œuvre le 15 août 2023. Ces réglementations de contrôle de l'IA exigent que les entreprises proposant des services d'IA générative effectuent une évaluation de sécurité et un dépôt d'algorithmes. Ils exigent également que les fournisseurs s'efforcent d'améliorer l'exactitude, l'objectivité, l'authenticité et la fiabilité du contenu généré, et exigent sa surveillance.

D’une manière générale, les pays concernés par la gouvernance de l’IA sont encore en train d’élaborer des lois et réglementations appropriées.

Développer les meilleures pratiques de gouvernance de l’IA au sein d’une entreprise

Les chefs d'entreprise doivent prendre en compte l'impact de l'IA sur leurs clients et leurs employés, et mettre en œuvre des politiques visant à minimiser les risques et à éviter de nuire. En développant un système de bonnes pratiques de gouvernance de l’IA, les entreprises peuvent soutenir l’utilisation responsable de l’intelligence artificielle pour le progrès de l’humanité. 

Les meilleures pratiques incluent :

Identifiez les matériaux générés par l’IA : De nombreux gouvernements discutent de l’utilisation obligatoire de filigranes comme moyen de distinguer les œuvres d’art générées par l’IA. Pour les organisations honnêtes et responsables, un filigrane constitue un moyen simple de communiquer que l’art a été créé par l’IA et non par un humain. Le problème avec les filigranes est qu’ils peuvent être supprimés assez facilement ; Pour augmenter le risque de confusion et de désinformation, des filigranes peuvent être ajoutés aux œuvres d'art créées par des humains. 

Les organisations honnêtes et responsables devraient inclure un filigrane sur tout art généré par l’IA. Les articles écrits par l'IA doivent placer « Généré par l'IA » à l'endroit où se trouve normalement le nom de l'auteur, que la personne à l'origine de l'article souhaite ou non en revendiquer la paternité. (Agir autrement est tout simplement trompeur et trompeur.) 

Gérer les biais algorithmiques : Les préjugés et préjugés involontaires (ou secrètement implantés) intégrés dans les algorithmes d'une IA peuvent avoir un impact sur les pratiques d'embauche et le service client d'une organisation en utilisant des données démographiques telles que la race ou le sexe.

Pour déterminer si une IA est biaisée, effectuez-lui un test. Testez-le plusieurs fois pour détecter les biais. Excel a développé Outils d'analyse de simulation (Goal Seek et Scenario Manager) qui effectuera ces tests. Ces outils sont conçus pour promouvoir l’équité et la justice dans les systèmes d’IA. Ils veillent à ce que l’IA fonctionne sans discrimination.

Sécurité client : Il existe deux types principaux d’informations sur les clients que les entreprises collectent. Le premier est fourni directement par le client et comprend des éléments tels que son adresse personnelle et son numéro de téléphone, éventuellement une date de naissance. Tout le monde convient que ces informations doivent être sécurisées et protégées.

L'intelligence artificielle peut être combinée à la gouvernance des données pour soutenir les lois sur la confidentialité et la sécurité des données. En développant un programme de gouvernance des données et des règles de sécurité basés sur l'IA, une entreprise peut réduire considérablement les risques de données volées et exploitées. 

La deuxième forme d'informations client est acheté auprès d'autres organisations et comprend des données allant des habitudes d'achat en ligne à l'activité sur les réseaux sociaux. Ce type d'informations (appelées « données de tiers ») est collecté dans le but de manipuler une personne pour qu'elle effectue un achat. 

La plupart des gens n’aiment pas l’idée que leurs préférences et besoins personnels soient observés et exploités. Les entreprises honnêtes et responsables ne devraient pas soutenir l’utilisation de l’intelligence artificielle pour manipuler les humains, ni les données de tiers en général.

Développer une philosophie de « ne pas nuire » lors de l’utilisation de l’IA : Il existe des entreprises dont le seul objectif est le profit à court terme et dans lesquelles la tromperie est acceptable, à condition qu'elle génère un profit. Mais feriez-vous affaire avec eux plus d’une fois ? Dans la recherche continue du profit, il peut être facile de perdre de vue la situation dans son ensemble.

Lorsque l’éthique est incluse dans le modèle commercial, une philosophie de « ne pas nuire » se développe. Des informations honnêtes et précises nuisent rarement à la clientèle d'une entreprise, mais la tromperie ou le vol entraîne généralement la perte de toute activité future avec ce client. De plus, des informations précises rationalisent l’efficacité et la fluidité de la société dans son ensemble, favorisant ainsi le progrès de l’humanité. L’introduction de fausses informations peut entraîner le chaos et la confusion. 

L’intelligence artificielle peut être utilisée pour favoriser le chaos et la confusion, ou elle peut être utilisée à des fins de bonne communication. 

Développer un code d’éthique pour l’organisation et l’IA : Un code d’éthique de gouvernance de l’IA doit décrire le désir et l’engagement de l’organisation en faveur d’un comportement éthique. Ce code d’éthique peut inclure un engagement à « utiliser l’intelligence artificielle pour fournir des informations exactes » et « l’intelligence artificielle ne doit pas être utilisée pour créer ou diffuser de la désinformation ».

La création d'un code d'éthique de gouvernance de l'IA aide une organisation à établir des normes de comportement claires. S'il est rendu public, le code d'éthique d'une entreprise peut contribuer à développer la confiance des clients et des parties prenantes, à atténuer les risques juridiques et à démontrer sa responsabilité sociale.

Les rapports de l’intendant des données et de l’éthique de l’IA : Un programme de gouvernance de l’IA doit inclure une série de politiques et de procédures qui soutiennent les préoccupations éthiques. L'une de ces politiques devrait exiger des rapports éthiques régulièrement programmés, et le gestionnaire des données semble être une personne appropriée à qui confier cette responsabilité. En créant un mécanisme de reporting sur l'utilisation éthique de l'intelligence artificielle de l'organisation, la haute direction peut garantir la responsabilité. Les audits de routine peuvent également aider à identifier les problèmes juridiques potentiels et à promouvoir la conformité. 

Ces mesures renforcent collectivement la mise en œuvre d’un programme de gouvernance de l’IA et favorisent des pratiques responsables en matière d’IA dans l’ensemble de l’organisation.

Former la direction et le personnel : La création d'un programme complet de gouvernance de l'IA nécessite que tout le personnel et la direction comprennent le code d'éthique et les objectifs à long terme de l'organisation. Le processus de formation garantit que tout le personnel travaille pour atteindre les mêmes objectifs et qu'aucun membre du personnel ne travaille à tort à l'encontre de ces objectifs.

L'utilisation d'algorithmes dans la gouvernance de l'IA

Si nous, en tant qu’humains, trouvons un moyen de séparer et d’identifier les informations exactes des informations erronées, nous pourrons peut-être développer des algorithmes qui empêcheront l’intelligence artificielle de commettre des actes criminels et de diffuser des informations erronées.

spot_img

Dernières informations

spot_img