Logo Zéphyrnet

"Équité en santé : comment les algorithmes et les données peuvent-ils atténuer, et non exacerber, les dommages ?" Récapitulatif du panel AAAS

Date :

La santé d'un individu est un sujet incroyablement personnel, et aller chez le médecin peut être une expérience intimidante et stressante. Cela est particulièrement vrai pour les personnes qui font partie de groupes où le système médical a historiquement échoué. Ces problèmes structurels du système de santé ont imprégné les algorithmes qui sont de plus en plus utilisés dans le diagnostic et le traitement des patients. Le CCC a organisé une table ronde, « Équité en santé : comment les algorithmes et les données peuvent-ils atténuer, et non exacerber, les dommages ? » qui traitaient de ces problèmes. Les panélistes étaient le Dr Amaka Eneanya (Fresenius Medical Care), le Dr Mona Singh (Université de Princeton), le Dr Melanie Moses (Université du Nouveau-Mexique) et le Dr Katie Siek (Université de l'Indiana).

Le Dr Eneanya a commencé le panel en expliquant comment une équation sous-estimait systématiquement la maladie rénalese chez les Noirs américains pendant des décennies. Elle a expliqué qu'aux États-Unis, tous les patients atteints d'insuffisance rénale sont inscrits dans un registre. La prévalence de la maladie a globalement augmenté au cours des dernières décennies, et pour les Noirs, elle a tendance à être encore plus répandue et plus grave. 

Le Dr Eneanya a décrit ces disparités raciales/ethniques dans les facteurs de risque et les résultats des maladies rénales chroniques (MRC) (Eneanya ND et al. Nature Rév Neph. 2021, Système de données rénales des États-Unis.):

  • La prévalence du diabète est la plus élevée chez les Noirs par rapport aux autres groupes raciaux 
    • Les personnes noires et hispaniques sont diagnostiquées à un âge plus jeune que les personnes blanches 
  • Les individus noirs ont des taux d'hypertension significativement plus élevés que les individus blancs 
    • Le contrôle de l'hypertension est moindre chez les Noirs et les Hispaniques que chez les Blancs
  • Les personnes noires sont moins susceptibles de recevoir des soins de néphrologie avant de commencer la dialyse par rapport aux autres groupes raciaux 
  • Risque de développer une insuffisance rénale nécessitant une dialyse ou une transplantation rénale 
    • 4 fois plus élevé chez les Noirs que chez les Blancs 
    • 1.3 fois plus élevé chez les Hispaniques que chez les Blancs 
  • Les personnes noires sont moins susceptibles de recevoir une greffe de rein que les autres groupes raciaux

Le racisme structurel s'ajoute aux mauvais résultats de santé des maladies liées aux reins, a expliqué le Dr Eneanya (Eneanya ND et al. Nature Rév Neph. 2021.) :

Les habitudes de vie que vous pouvez vous permettre, comme ce que vous mangez, et les impacts biologiques comme le stress du racisme et de la discrimination entraînent tous des changements métaboliques dans le corps, ce qui peut entraîner une diminution de la fonction rénale.

Le Dr Eneanya s'est penché sur un exemple de la façon dont un algorithme actuellement utilisé par les cliniciens a des conséquences dans le monde réel. L'équation eGFR est un algorithme utilisé pour déterminer la force de la fonction rénale d'un patient. Un eGFR plus élevé représente une meilleure fonction rénale. Le niveau d'eGFR d'un patient détermine s'il est éligible à certains traitements et, peut-être le plus important, à une greffe de rein. Cependant, l'algorithme montre qu'une personne noire et non noire qui ont le même âge, le même sexe et qui ont la même mesure de créatinine (un test sanguin qui mesure la fonction rénale), ont des niveaux d'eGFR différents. L'algorithme calcule qu'une personne noire a un eGFR plus élevé, une fonction rénale supposée supérieure, que la personne non noire. Cela limite le traitement auquel ils ont droit et signifie qu'ils doivent être plus malades pour recevoir l'aide à laquelle ils devraient avoir droit.

Le Dr Eneanya a expliqué l'historique de l'algorithme qui révèle pourquoi il calcule de cette manière erronée : une étude de 1999 a attribué une créatinine sérique plus élevée aux individus noirs en raison de l'hypothèse erronée selon laquelle ils avaient une masse musculaire plus élevée. L'étude a développé la première équation eGFR utilisée aux États-Unis et a incorporé un facteur de multiplication de «race noire» qui provoque un eGFR plus élevé chez les individus noirs. L'utilisation de l'eGFR est problématique car les cliniciens doivent juger la race d'une personne en fonction de son apparence ou de ses dossiers médicaux (qui peuvent avoir la race répertoriée comme une hypothèse résiduelle d'un clinicien précédent). Il n'y a pas non plus de distinction pour les personnes de race mixte, ni de méthode pour les classer.

Le Dr Eneanya était l'auteur d'un article qui a changé la façon dont l'eGFR est calculé dans les soins de santé en préconisant une équation qui ne prend pas en compte la race dans l'estimation (Inker LA, Eneanya ND, et al. NEJM 2021, Delgado C, et al. JASN 2021). Le Dr Eneanya et ses collègues sont revenus à l'étude originale de 1999 et ont retiré la race de l'équation et l'ont réaménagée avec d'autres intrants. Aujourd'hui, ⅓ des hôpitaux et des cliniques aux États-Unis utilisent la nouvelle équation, et le United Network for Organ Sharing (UNOS) a notamment interdit à tous les centres de transplantation d'utiliser l'équation basée sur la race en juin 2022. Ils sont allés plus loin en janvier. 2023 et a déclaré que tous les centres de transplantation américains sont tenus d'examiner tous les patients noirs sur la liste d'attente pour une greffe de rein et de modifier leur temps d'attente s'il était impacté par l'équation eGFR basée sur la race. Le Dr Eneanya a précisé que si l'UNOS fait partie du gouvernement fédéral, le gouvernement n'a pas été directement impliqué dans la décision d'interdire l'utilisation de l'équation basée sur la race.

Outre l'adoption universelle de la nouvelle équation eGFR, le Dr Eneanya avait quelques autres approches futures qu'elle considère comme essentielles pour un accès équitable au traitement des maladies rénales :

  • Élaborer des politiques et des processus pour améliorer l'accès aux soins préventifs des maladies rénales chroniques 
  • Élaborer des politiques pour accroître l'accès à la transplantation rénale 
  • Étudier les effets environnementaux (p. ex., stress, discrimination) sur la fonction rénale et la progression de la maladie
  • Transparence dans la discussion de la détermination de la fonction rénale avec les patients (y compris les limites des équations DFGe)

Le Dr Eneanya a expliqué que démêler les stéréotypes sur la race noire revient à éliminer les erreurs et les fausses nouvelles qui n'ont aucun fondement scientifique. Par exemple, les programmes des écoles de médecine changent pour montrer qu'il n'y a aucune base anthropologique qu'il y ait plus de masse musculaire dans une race que dans une autre. Les médias ont également fait du bon travail en partageant ce mythe brisé, et le Dr Eneanya a même consulté un épisode de Grey's Anatomy qui a mis en évidence les effets dévastateurs de l'équation eGFR pour les patients noirs ayant besoin d'une greffe de rein.

Le Dr Singh a poursuivi la conversation sur les disparités en matière de santé en expliquant que les Noirs ont également des taux de mortalité plus élevés dus à tous les types de cancer par rapport aux personnes classées dans les autres races. Ce fait illustre qu'il existe de nombreux défis auxquels les professionnels de la santé et les chercheurs en informatique doivent faire face, il existe également de nombreuses opportunités pour développer des méthodes qui n'aggravent pas les disparités existantes.

Le Dr Singh a d'abord expliqué la biologie du cancer : « Le cancer est une maladie dans laquelle nos propres cellules acquièrent des mutations qui leur permettent de se développer de manière incontrôlable. Donc, si nous voulons comprendre les fondements moléculaires du cancer chez UN individu, nous pouvons examiner les génomes de ses cellules cancéreuses et de ses cellules non cancéreuses, ainsi que leur séquence. Une fois que nous avons séquencé les cellules normales et cancéreuses, nous pouvons comparer les génomes et découvrir les mutations que nous avons acquises dans les cellules cancéreuses, ce qui peut nous donner une idée des altérations qui peuvent être celles qui sont pertinentes pour le cancer de cet individu. C'est précisément ce qui a été fait au cours des 15 dernières années, où les tumeurs de dizaines de milliers d'individus ont été séquencées et des mutations en leur sein identifiées.

Presque tout le monde connaît quelqu'un qui a reçu un diagnostic de cancer, et il n'y a pas de remède universel. Cependant, le Dr Singh a ensuite discuté de la promesse de l'oncologie de précision, où un scientifique séquence la tumeur d'un patient, identifie ses mutations d'ADN et effectue une analyse informatique pour déterminer quelles altérations peuvent être ciblées. L'immunothérapie est une approche pour exploiter le propre système immunitaire d'une personne afin de cibler ses tumeurs. Une immunothérapie prometteuse et à venir consiste à concevoir des vaccins personnalisés pour chaque individu et ces vaccins évoquent une réponse immunitaire à leurs tumeurs.

Le Dr Singh explique que la façon dont cela fonctionne est que chacun de nos systèmes immunitaires possède 6 copies différentes des gènes classiques de classe I du complexe majeur d'histocompatibilité (CMH). Il existe plus de 13,000 XNUMX variantes différentes du CMH de ces gènes, de sorte que chaque personne possède un ensemble différent de gènes du CMH. Certaines mutations au sein des cellules cancéreuses entraînent la formation de protéines « étrangères » et certaines d'entre elles peuvent être liées par les CMH d'un individu. Ces complexes de MHC liés à un fragment de protéine dérivée du cancer sont reconnus par les cellules immunitaires et peuvent activer une réponse immunitaire. Ceci est hautement personnalisé car la tumeur de chaque individu peut avoir des mutations différentes et chaque individu a des CMH différents. Les scientifiques utilisent l'apprentissage automatique pour prédire quelles variantes du CMH se lient à quels peptides, ce qui, espérons-le, améliorera l'efficacité de l'immunothérapie et conduira finalement à la conception de vaccins néo-antigènes personnalisés.

La variété des gènes du CMH varie considérablement à travers le monde, explique le Dr Singh. La plupart des allèles du CMH n'ont pas de données de liaison associées, et ceux qui ont des données sur leur liaison sont biaisés en faveur de certains groupes raciaux. Lors du test d'un ensemble de données, il est important de ne pas se concentrer uniquement sur les performances globales, mais également de prendre en compte des sous-populations de données afin que chacun ait un accès égal aux avantages potentiels de cette recherche.

L'ensemble de formation doit être analysé pour détecter les biais avant d'être appliqué. De plus, les méthodes d'estimation des performances sur des données invisibles peuvent révéler des biais dans les données sur lesquelles elles ont été formées. La collecte de données de manière impartiale est essentielle pour limiter les risques de biais plus tard dans l'utilisation de l'algorithme. Les domaines de travail futur sur ce sujet se concentrent sur des procédures de formation alternatives et des stratégies algorithmiques pour la collecte de données ciblées. Dans l'ensemble, il est crucial de prioriser le développement d'approches de médecine de précision équitables afin que les thérapies et la recherche en aval soient équitables.

Le Dr Moses a ensuite pris la parole et elle a contextualisé comment les algorithmes de liaison eGFR et MHC-peptide s'intègrent dans un écosystème plus large de la façon dont les algorithmes médicaux affectent les résultats sociaux. Elle explique que les scientifiques utilisent des algorithmes et l'IA pour prédire les résultats qui nous intéressent à partir de proxys qui peuvent être facilement mesurés, et ces proxys peuvent être inexacts. Pour rendre les algorithmes médicaux encore plus compliqués, ils interagissent constamment les uns avec les autres de manière imprévisible, de sorte que l'étendue complète des algorithmes sur le diagnostic d'un patient n'est généralement pas claire. Par conséquent, il est crucial d'utiliser les algorithmes avec prudence, notamment parce que lorsque les algorithmes échouent, ils peuvent être plus nocifs pour les plus vulnérables.

Déterminer qui un algorithme impacte et pourquoi est un élément important de l'équité médicale. Le Dr Moses prend du recul et définit l'équité. Le graphique commun utilisé pour différencier l'équité de l'égalité, avec des individus avec 3 hauteurs différentes qui ont du mal à voir un match de baseball et différentes façons de les soutenir, est défectueux même dans la 3ème image qui supprime la barrière car elle suggère qu'il y a quelque chose d'inhérent à la personne quant à pourquoi ils ont besoin de soutien plutôt que des raisons sociales qui peuvent avoir causé l'iniquité en premier lieu.

Le Dr Moses a montré un graphique alternatif pour définir à quoi ressemble l'équité dans une société avec des injustices systémiques (Copyright 2020 par Nicolás E. Barceló et Sonya Shadravan (Artiste : Aria Ghalili)) :

Ce graphique révèle que tout le monde ne peut pas bénéficier uniquement de la suppression de l'obstacle, mais il existe des problèmes profondément enracinés qui doivent être traités afin d'atteindre l'équité.

Les informaticiens devraient toujours garder ce contexte important à l'esprit, explique le Dr Moses. Il est souvent difficile d'identifier les hypothèses qui étaient présentes dans la création d'algorithmes, même avec les algorithmes les plus simples. Il est également facile d'utiliser une corrélation statistique pour prédire un résultat et supposer que la corrélation est égale à la causalité, mais c'est une erreur.

Le Dr Moses poursuit en donnant des exemples concrets d'algorithmes inéquitables qui sont utilisés dans la société aujourd'hui dans d'autres domaines. Par exemple, les algorithmes du système de justice pénale qui remplacent la caution pécuniaire pour la détention provisoire. L'intention est que le processus soit une méthode impartiale et axée sur les données pour détenir ceux qui présentent un danger ou un risque élevé de ne pas se présenter au procès. Cependant, les algorithmes présentent de nombreuses lacunes à la fois dans la capacité de l'algorithme à faire des prédictions justes et précises et dans les biais du système dont l'algorithme fait partie, y compris les entrées biaisées et les interprétations biaisées des sorties. Un autre exemple de la façon dont les préjugés raciaux sont perpétués dans le système de justice pénale par des algorithmes est le logiciel de reconnaissance faciale. Alors que la reconnaissance faciale s'est avérée la moins précise pour identifier les visages féminins à la peau plus foncée, ce sont les visages masculins noirs qui ont le plus souvent été mal identifiés par ces algorithmes conduisant à de fausses arrestations. Cela démontre comment les préjugés qui affectent le plus un groupe (les femmes noires) en termes de classification précise peuvent avoir le plus grand impact sur un autre groupe (les hommes noirs) en raison des préjugés du système de justice pénale.

Les algorithmes peuvent exacerber les préjugés humains et peuvent également être rejetés s'ils ne renforcent pas le jugement que vous auriez porté sans consulter l'algorithme. Cela est également vrai pour les algorithmes biaisés en médecine. Par exemple, les oxymètres de pouls sont moins précis pour détecter les niveaux d'oxygène dans les peaux plus foncées, ce qui peut entraîner le sous-diagnostic de maladies respiratoires comme le COVID grave. Utiliser le montant d'argent dépensé pour les soins de santé comme indicateur de l'état de santé d'une personne est une autre mesure inéquitable. Les exemples décrits par le Dr Eneanya et le Dr Singh, le DFGe rénal actualisé l'insuffisance rénale chez les Afro-Américains et les ensembles de données génomiques surreprésentant l'ascendance européenne, sont d'autres exemples importants d'algorithmes biaisés en médecine qui ont des conséquences dangereuses en aval pour les personnes concernées. L'équation eGFR a été utilisée pour identifier les prisonniers suffisamment malades pour être libérés de prison pendant le COVID, ce qui a entraîné le refus de libération d'un homme afro-américain parce que sa fonction rénale était surestimée.

Les commentaires peuvent améliorer les algorithmes ou exacerber leurs méfaits. Les algorithmes ne sont pas à sens unique, car ils visent à prédire le comportement à partir des données et la prédiction d'une année affecte les données de l'année suivante. Les algorithmes doivent viser à réduire les biais au fil du temps ; par exemple, les audiences sur le cautionnement devraient aider les accusés à se présenter au procès plutôt que de prévoir les échecs ; le maintien de l'ordre devrait viser à réduire à la fois la criminalité et les fausses arrestations. Les algorithmes utilisés dans tous les domaines ne doivent jamais être gravés dans le marbre car il y aura une rétroaction entre les personnes, les algorithmes et le contexte social.

Le Dr Moses a également proposé des voies supplémentaires : supprimer les biais des ensembles de données, remettre en question les hypothèses, inverser (et non renforcer) les biais systémiques, évaluer avec une diversité de perspectives, exiger des algorithmes transparents et explicables et utiliser des déploiements progressifs et adaptatifs. La perception commune est que les algorithmes suppriment en quelque sorte les biais, mais en réalité, ils codifient souvent les biais et nous devons nous méfier des algorithmes et de leurs résultats.

La dernière partie du panel était une séance de questions-réponses. Le modérateur, le Dr Siek, a lancé la session en demandant : "comment les algorithmes et les données peuvent-ils ne pas exacerber les dommages ?"

  • Dr Eneanya : Si un chercheur s'arrête à la race lorsqu'il cherche des différenciateurs dans un algorithme, c'est paresseux et scientifiquement invalide. Génétiquement, les humains se ressemblent plus entre les races qu'à l'intérieur. Il est plus important de penser aux caractéristiques biologiques qui ont un impact réel sur un système humain comme les reins. Par exemple, lors du test de l'oxymètre de pouls, les chercheurs auraient dû consulter un dermatologue pour tester et valider les oxymètres de pouls en fonction de différents tons de peau - plutôt que d'utiliser un type d'appareil pour les personnes ayant des tons de peau différents.
  • Dr Moses : Nous devrions utiliser la même approche pour valider les algorithmes après leur mise en service. Reconnaître la race comme une construction sociale permet de remarquer que les études en aveugle racial ont un impact. Il est important de rechercher la distinction entre les groupes pour identifier les disparités potentielles que l'algorithme renforce. Vous devez évaluer si l'algorithme minimise les problèmes ou les améliore ?
  • Dr. Singh : La race ne devrait jamais être utilisée comme entrée, mais elle peut être utilisée pour évaluer les sorties pour les biais. Si nous ne pensions pas à la race, nous ne pourrions même pas dire qu'il existe des disparités en matière de santé. La collecte de données génomiques et la catégorisation par ascendance est également une méthodologie erronée. Nous devons nous assurer d'évaluer si les méthodes fonctionnent bien dans toutes les populations.
  • Dr Eneanya : Lorsque nous diversifions une population d'étude, nous devons nous éloigner de la simple intégration de groupes de personnes blanches ou noires. Nous devons examiner davantage de différences au sein de ces groupes, telles que des facteurs tels que le statut social, le sexe, la sexualité, etc. Nous devons examiner l'image dans son ensemble et pas seulement les ensembles de données sur la diversité basés sur la race.
  • Dr. Moses : Les algorithmes sont exactement le type d'outils qui devraient nous aider à faire cela, il y a beaucoup de stratégies informatiques potentielles qui peuvent aider.
  • Dr. Singh : Je conviens que les algorithmes jouent un rôle énorme ici, alors comment priorisons-nous la collecte de données ? Nous devons réfléchir très attentivement à la manière dont nous procédons.

Un membre de l'auditoire a ensuite demandé : "Étant donné la précipitation majeure pour développer des algorithmes basés sur des ensembles de données actuels avec des biais, existe-t-il des moyens de contrer les biais dans l'algorithme au-delà de l'élimination des biais dans l'ensemble de données ?" 

  • Dr Singh : Il est difficile de surmonter les biais dans un ensemble de données ; c'est un domaine de recherche actif. Il est facile de sur ou sous-échantillonner des données. Il existe différentes façons de former des modèles ML où l'objectif global (généralement une fonction que vous essayez de minimiser, en utilisant généralement l'ensemble de données complet) est ce à quoi l'optimisation devrait ressembler.
  • Dr Eneanya : De nombreux algorithmes médicaux sont considérés comme devant inclure la race pour être plus précis. Cependant, les gens doivent examiner de manière critique pourquoi la race est introduite en premier lieu ? La suppression de la race en tant que variable peut ne pas modifier les performances de l'algorithme autant que vous pourriez le penser. Cela signifie-t-il quelque chose (cliniquement) lorsque les résultats ne changent que très peu après la suppression d'une variable telle que la race ?
  • Dr. Singh : Cela ne veut surtout rien dire lorsque votre ensemble d'entraînement et l'ensemble sur lequel vous l'utilisez sont très différents.

Le Dr Siek a posé une autre question aux panélistes : "Si nous pouvions tout recommencer, que ferions-nous différemment ?"

  • Dr Eneanya : S'arrêter à la race lors de l'évaluation des raisons des différences dans les résultats de santé n'aurait pas dû se produire. Par exemple, avec les niveaux de créatinine, nous devrions penser à quoi d'autre peut avoir un impact sur la créatinine ? Nous avons besoin de meilleurs ensembles de données, ce qui nécessite de renforcer la confiance dans les communautés. Cela peut ressembler à l'amélioration de la diversité des populations d'essai, à l'évaluation de l'apparence de votre personnel d'étude, etc. Les subventions de l'Institut national de la santé exigent de plus en plus des partenaires communautaires et des spécialistes de l'équité en santé au sein de l'équipe de recherche. Nous devons changer les anciens ensembles, mais aussi créer de meilleurs ensembles à l'avenir. Nous ne pouvons pas faire grand-chose en essayant de reconfigurer ce qui existe.
  • Dr Moses : Au-delà de ce que nous pourrions faire si nous redémarrions, j'aime considérer les algorithmes comme des miroirs de la société. Ils sont formés par tout le monde sur Internet. En utilisant cela comme entrée au niveau suivant de l'algorithme, nous pouvons déterminer où se trouvent les biais, pourquoi ils sont là et quel est l'impact futur. Nous devons nous demander comment utiliser ces outils quantitatifs pour déterminer comment résoudre ces situations plutôt que de les aggraver.
  • Dr Singh : Beaucoup de génomes qui ont été collectés ne représentent pas la population dans son ensemble. Nous devons commencer par la participation de divers groupes de personnes.

La dernière question du public était : « Jusqu'à ce que nous arrivions à un point où nous aurons une image génomique complète de tous les humains, il y aura de l'enthousiasme à utiliser le ML et les algorithmes. Quelles sont les vraies choses au niveau de l'examen par les pairs que nous pouvons faire maintenant pour ne pas avoir à les régler dans 30 ans ? »

  • Dr Eneanya : La perfection est l'ennemie du bien. Nous devons faire de notre mieux. Nous pouvons identifier les préjugés, puis faire de notre mieux pour aller de l'avant. Il existe des barrières qui n'ont rien à voir avec les algorithmes cliniques. Le simple fait de corriger l'algorithme eGFR en se débarrassant de la race ne résoudra pas les disparités dans les maladies rénales. Beaucoup de travail reste à faire sur les aspects multivariés de la répression.
  • Dr Moses : Le travail que vous [Dr. Eneanya] ont fait pour repenser l'algorithme pour tous, c'est exactement comment aller de l'avant. Nous devons réparer le système. Utilisant également le fait qu'il devait être réparé; il était facile de voir le biais écrit dans l'équation. L'équation du rein sert de miroir à une société qui a permis à la race d'être encodée d'une manière qui a désavantagé les Afro-Américains pendant des décennies. Le biais dans cette équation était explicite et délibéré. Il sera beaucoup plus difficile d'identifier les biais dans des algorithmes plus complexes à l'avenir.

Restez à l'écoute pour un autre récapitulatif du panel parrainé par l'AAAS 2023 CCC !

spot_img

Dernières informations

spot_img