Logo Zéphyrnet

Demandez à un éthicien des données : pouvons-nous faire confiance à une IA inexplicable ? – DATAVERSITÉ

Date :

Dans le mois dernier colonne, j'ai demandé aux lecteurs d'envoyer leurs « grandes questions » en matière de données et d'IA. La question de ce mois-ci a largement répondu à cet appel ! Il englobe les énormes domaines de confiance dans les outils d’IA et l’explicabilité.

Comment pouvons-nous savoir si un outil d’IA produit un résultat éthique si nous n’avons aucune idée de la manière dont il parvient à ses réponses ?

Avant de répondre directement à la question, il y a quelques points importants à aborder en premier :

L'IA n'est pas une chose

Il existe toute une gamme de technologies commercialisées sous l’égide de l’IA – depuis les technologies de reconnaissance faciale utilisant la vision par ordinateur jusqu’aux systèmes de recommandation en passant par les outils de type chatbot à grand modèle de langage comme ChatGPT, pour n’en nommer que quelques-uns. Les manières spécifiques dont ces technologies fonctionnent et à quoi elles sont utilisées jouent sur la question de l’explicabilité et de la confiance. De manière générale, l'apprentissage automatique consiste à trouver des modèles dans un grand nombre de données afin de produire un résultat ou une sortie. Il existe une foule de préoccupations éthiques générales liées à ce processus. Cependant, pour répondre pleinement à la question, nous devons essayer d’être aussi précis que possible sur l’outil d’IA dont nous parlons.

L'éthique en contexte

À l’instar du terme IA, l’éthique recouvre également toute une série de problématiques et selon la situation particulière, certaines préoccupations éthiques peuvent devenir plus ou moins importantes. Pour prendre un exemple extrême, la plupart des gens se soucieront moins de leur vie privée dans une situation de vie ou de mort. Dans le cas d’une personne disparue, la principale préoccupation est de retrouver cette personne. Cela pourrait impliquer d’utiliser tous les moyens possibles pour les retrouver, y compris de divulguer de nombreuses informations personnelles aux médias. Cependant, lorsque la personne disparue est retrouvée, toute la publicité sur la situation devrais être retiré. La question éthique consiste désormais à garantir que l'histoire ne suive pas la victime tout au long de sa vie, introduisant ainsi une éventuelle stigmatisation. Dans cet exemple, la chose éthique à faire change complètement à la lumière des circonstances contextuelles.

Agence humaine et explications

Pour qu'une personne puisse exercer son libre arbitre et être tenue responsable en tant que agent moral, il est important d'avoir un certain niveau de compréhension d'une situation. Par exemple, si une banque refuse un prêt, elle doit fournir au demandeur une explication sur la manière dont cette décision a été prise. Cela garantit que cela n'était pas basé sur des facteurs non pertinents (vous portiez des chaussettes bleues) ou sur des facteurs indépendants de la volonté d'une personne (race, âge, sexe, etc.) qui pourraient s'avérer discriminatoires. L’explication doit être raisonnable et compréhensible pour la personne qui la demande. Ainsi, donner une explication très technique à un profane ne sera pas suffisant. Il y a aussi un aspect de dignité humaine dans les explications. Respecter les gens, c’est les traiter avec dignité. 

Les éléments de confiance

La confiance a de multiples facettes. Notre société a construit des infrastructures qui contribuent à favoriser la confiance dans l’utilisation des technologies. Par exemple, dans les années 1850, quand l'ascenseur était une nouvelle technologie, il a été conçu d’une manière qui n’était pas toujours sûre. Les cordes étaient utilisées comme câbles et celles-ci pouvaient s'effilocher et se briser. Au fil du temps, nous avons vu de meilleures conceptions et nous avons également mis en place un processus pour superviser les opérations des ascenseurs. Certaines lois exigent des contrôles de sécurité réguliers. Comment savons-nous que les contrôles de sécurité sont effectués ? Nous faisons confiance au système qui impose la conformité. On n'a plus besoin de se demander si on arrivera sain et sauf au 77e étage avant d'entrer dans la petite boîte métallique. Dans ce cas, la confiance repose sur une technologie fiable et conçue en toute sécurité, ainsi que sur des systèmes de surveillance et de gouvernance appropriés.

Passons à notre question…

Ayant ces éléments à l’esprit, plongeons dans notre question. La réponse très courte et probablement insatisfaisante à la question est « nous ne pouvons pas le savoir avec certitude ». Cependant, essayons de préciser certains détails sur l'outil et le contexte qui nous aideront à obtenir une réponse plus utile.

Supposons que nous sommes des utilisateurs finaux et que nous utilisons un outil d'IA générative pour nous aider à créer le contenu d'une présentation que nous faisons au travail. Comment pouvons-nous nous assurer que nous faisons les bons choix afin de pouvoir utiliser cet outil de manière responsable dans ce contexte ?

Éthique de la façon dont c'est fabriqué

Il existe des problèmes éthiques liés à l’IA générative que nous, en tant qu’utilisateur final, ne pouvons pas résoudre. La plupart des IA génératives ont été réalisées à l'aide données acquises de manière douteuse depuis Internet. Il comprend des données biaisées et non représentatives. Il y a aussi problèmes de chaîne d’approvisionnement en main-d’œuvre ainsi que le les questions environnementales liés à la formation de grands modèles de langage. De plus, il n'est pas (actuellement) possible d'avoir interprétabilité – une compréhension technique détaillée d’un grand modèle de langage. Pour un profane, cela pourrait suffire comme explication pour comprendre qu'un grand modèle de langage utilise des méthodes probabilistes pour déterminer le prochain mot qui semble plausible et qu'il visera toujours à fournir une réponse même si la réponse n'est pas exacte. 

En tant qu'utilisateur final, vous n'aborderez aucune de ces questions éthiques. Le mieux que vous puissiez faire est de décider si vous souhaitez toujours utiliser l’outil ou non, compte tenu de la manière dont il a été créé. Au fil du temps, j’espère que certaines entreprises concevront de meilleurs outils, développés de manière plus responsable, pour résoudre ces problèmes ou que la réglementation exigera que ces problèmes soient résolus. 

Utiliser l'IA de manière responsable

En supposant que vous décidiez de continuer, l’étape suivante consiste à assumer la responsabilité des résultats. C’est savoir que l’IA générative ne comprend rien. Il y a eu de nombreuses histoires sur la façon dont l'outil « hallucine » et pourquoi il ne devrait pas être utilisé pour des choses à enjeux élevés comme travail juridique. Compte tenu de ces informations, dans quels domaines est-il judicieux pour vous d’utiliser l’outil d’IA générative ? Peut-être que cela aide au brainstorming. Peut-être que cela peut créer un aperçu ou vous aider avec une première ébauche. 

Il existe également des différences entre l’IA générative qui peuvent rendre son utilisation plus ou moins sûre. Par exemple, une solution d'entreprise déployée dans les limites de votre entreprise est susceptible d'avoir plus de confidentialité et d'autres garde-fous qu'un outil public comme ChatGPT. Si vous utilisez un outil d'entreprise, vous pouvez demander au service informatique de votre entreprise quelle diligence raisonnable a été effectuée avant l'adoption de l'outil. (Indice : si vous achetez de l'IA, vous devriez poser des questions difficiles aux fournisseurs et faire preuve de diligence raisonnable !) De plus, votre entreprise devrait avoir les politiques et les procédures en place pour utiliser les outils conformément à leurs attentes.

Vous pouvez également revérifier les sorties. Vous pouvez utiliser d'autres sources pour vérifier les informations. Si vous générez des images, vous pouvez utiliser des invites spécifiques pour garantir une plus grande diversité de représentation. Être conscient des stéréotypes et assurez-vous que vous ne demandez pas au système de générer une image qui est sous copyright

Finalement, quels sont les enjeux de ce travail ? Est-ce pour une présentation interne ou le contenu généré sera-t-il utilisé dans une campagne publicitaire nationale ? Plus les enjeux sont élevés, plus vous devez faire preuve de diligence raisonnable et d’examen, notamment en impliquant des parties prenantes externes pour quelque chose qui pourrait avoir des impacts majeurs.

Envoyez-moi vos questions !

Je voudrais love pour entendre parler de vos dilemmes en matière de données ou de vos questions et dilemmes en matière d’éthique de l’IA. Vous pouvez m'envoyer un message à bonjour@ethicalalignedai.com ou connectez-vous avec moi sur LinkedIn. Je garderai toutes les demandes confidentielles et supprimerai toute information potentiellement sensible – alors n'hésitez pas à garder les choses de haut niveau et anonymes également. 

spot_img

Dernières informations

spot_img