Logo Zephyrnet

"Equità sanitaria: in che modo gli algoritmi e i dati possono mitigare, non esacerbare, i danni?" Riepilogo pannello AAAS

Data:

La salute di un individuo è un argomento incredibilmente personale e andare dal medico può essere un'esperienza intimidatoria e stressante. Ciò è particolarmente vero per le persone che fanno parte di gruppi che il sistema medico ha storicamente fallito. Questi problemi strutturali nel sistema sanitario hanno permeato gli algoritmi che vengono sempre più utilizzati nella diagnosi e nel trattamento dei pazienti. CCC ha organizzato un panel, "Health Equity: How Can Algorithms and Data Mitigate, Not Exacerbate, Harms?" che ha affrontato questi problemi. I relatori erano la dott.ssa Amaka Eneanya (Fresenius Medical Care), la dott.ssa Mona Singh (Princeton University), la dott.ssa Melanie Moses (Università del New Mexico) e la dott.ssa Katie Siek (Indiana University).

Il dottor Eneanya ha iniziato il panel discutendo di come un'equazione abbia sistematicamente sottovalutato la malattia renalese nei neri americani per decenni. Ha spiegato che negli Stati Uniti tutti i pazienti che hanno una malattia renale vengono inseriti in un registro. La prevalenza della malattia è aumentata complessivamente negli ultimi decenni e per gli individui neri tende ad essere ancora più diffusa e grave. 

Il Dr. Eneanya ha delineato queste disparità razziali/etniche nei fattori di rischio e negli esiti della malattia renale cronica (CKD) (Eneanya ND et al. Natura Rev NepH. 2021, Sistema di dati renali degli Stati Uniti.):

  • La prevalenza del diabete è più alta tra gli individui neri rispetto ad altri gruppi razziali 
    • Gli individui neri e ispanici vengono diagnosticati in età più giovane rispetto agli individui bianchi 
  • Gli individui neri hanno tassi di ipertensione significativamente più alti rispetto agli individui bianchi 
    • Il controllo dell'ipertensione è minore tra i neri e gli ispanici rispetto ai bianchi
  • Gli individui neri hanno meno probabilità di ricevere cure nefrologiche prima di iniziare la dialisi rispetto ad altri gruppi razziali 
  • Rischio di sviluppare insufficienza renale che richieda dialisi o trapianto di rene 
    • 4 volte più alto negli individui neri rispetto a bianchi 
    • 1.3 volte più alto negli individui ispanici rispetto a quelli bianchi 
  • Gli individui neri hanno meno probabilità di ricevere un trapianto di rene rispetto ad altri gruppi razziali

Il razzismo strutturale si aggiunge agli esiti di cattiva salute dovuti a malattie correlate ai reni, ha elaborato il dott. Eneanya (Eneanya ND et al. Natura Rev NepH. 2021.):

Le abitudini di vita che puoi permetterti, come quello che mangi, e gli impatti biologici come lo stress del razzismo e della discriminazione portano tutti a cambiamenti metabolici nel corpo, che possono portare a una ridotta funzionalità renale.

Il dottor Eneanya ha fatto perno su un esempio di come un algoritmo attualmente utilizzato dai medici abbia conseguenze nel mondo reale. L'equazione eGFR è un algoritmo utilizzato per determinare quanto è forte la funzione renale di un paziente. Un eGFR più elevato rappresenta una migliore funzionalità renale. Il livello di eGFR di un paziente determina se è idoneo per determinati trattamenti e, forse soprattutto, un trapianto di rene. Tuttavia, l'algoritmo mostra che una persona nera e una persona non nera che hanno la stessa età, sesso e hanno la stessa misurazione della creatinina (un esame del sangue che misura la funzionalità renale), hanno livelli di eGFR diversi. L'algoritmo calcola che una persona nera ha un eGFR più alto, presumibilmente una funzione renale superiore, rispetto alla persona non nera. Ciò limita il trattamento a cui hanno diritto e significa che devono essere più malati per ricevere l'aiuto a cui dovrebbero avere diritto.

Il Dr. Eneanya ha spiegato la storia dell'algoritmo che rivela perché calcola in questo modo errato: uno studio del 1999 ha attribuito una creatinina sierica più elevata a individui di colore a causa dell'errato presupposto che avessero una massa muscolare più elevata. Lo studio ha sviluppato la prima equazione eGFR utilizzata negli Stati Uniti e ha incorporato un fattore di moltiplicazione della "razza nera" che causa un eGFR più elevato tra gli individui neri. L'uso dell'eGFR è problematico perché i medici sono lasciati a giudicare la razza di qualcuno in base all'aspetto o alle cartelle cliniche (che potrebbero avere la razza elencata come ipotesi rimanente da un medico precedente). Inoltre, non esiste una distinzione per gli individui di razza mista o un metodo per classificarli.

Il Dr. Eneanya è stato autore di un articolo che ha cambiato il modo in cui l'eGFR viene calcolato nel settore sanitario sostenendo un'equazione che non tenga conto della razza nella stima (Inker LA, Eneanya ND, et al. NEJM 2021, Delgado C, et al. GIASN 2021). La dottoressa Eneanya e i suoi colleghi sono tornati allo studio originale del 1999 e hanno rimosso la razza dall'equazione e l'hanno riadattata con altri input. Oggi, ⅓ degli ospedali e delle cliniche negli Stati Uniti utilizza la nuova equazione e la United Network for Organ Sharing (UNOS) ha notevolmente limitato tutti i centri di trapianto dall'utilizzo dell'equazione basata sulla razza nel giugno 2022. Hanno fatto un ulteriore passo avanti a gennaio 2023 e ha dichiarato che tutti i centri di trapianto degli Stati Uniti sono tenuti a rivedere tutti i pazienti neri nella lista d'attesa per il trapianto di rene e modificare il tempo della lista d'attesa se è stato influenzato dall'equazione eGFR basata sulla razza. Il dottor Eneanya ha specificato che mentre UNOS fa parte del governo federale, il governo non è stato direttamente coinvolto nella decisione di vietare l'uso dell'equazione basata sulla razza.

Oltre all'adozione universale della nuova equazione eGFR, la dott.ssa Eneanya ha avuto alcuni altri approcci futuri che considera fondamentali per un accesso equo al trattamento delle malattie renali:

  • Sviluppare politiche e processi per migliorare l'accesso alle cure preventive per le malattie renali croniche 
  • Sviluppare politiche per aumentare l'accesso al trapianto di rene 
  • Indagare gli effetti ambientali (p. es., stress, discriminazione) sulla funzione renale e sulla progressione della malattia
  • Trasparenza nella discussione della determinazione della funzione renale con i pazienti (comprese le limitazioni delle equazioni di eGFR)

Il dottor Eneanya ha spiegato che eliminare gli stereotipi sulla razza nera si riduce all'eliminazione di errori e notizie false che non hanno basi scientifiche. Ad esempio, i curricula delle scuole di medicina stanno cambiando per mostrare che non vi è alcuna base antropologica che ci sia più massa muscolare in una razza piuttosto che in un'altra. Anche i media hanno fatto un buon lavoro nel condividere questo mito sfatato e il dottor Eneanya si è persino consultato su un episodio di Grey's Anatomy che ha evidenziato gli impatti devastanti dell'equazione eGFR per i pazienti neri che necessitano di un trapianto di rene.

Il dottor Singh ha continuato la conversazione sulle disparità di salute spiegando che i neri hanno anche tassi di mortalità più elevati per tutti i tipi di cancro rispetto alle persone classificate come altre razze. Questo fatto esemplifica che ci sono molte sfide che i professionisti medici e i ricercatori informatici devono affrontare, ci sono anche molte opportunità per sviluppare metodi che non ampliano le disparità esistenti.

Il dottor Singh ha spiegato per primo la biologia del cancro: “Il cancro è una malattia in cui le nostre stesse cellule acquisiscono mutazioni che consentono loro di crescere in modo incontrollabile. Quindi, se vogliamo comprendere le basi molecolari del cancro in UN SOLO individuo, possiamo esaminare i genomi delle sue cellule tumorali e delle sue cellule non cancerose e la loro sequenza. Una volta che abbiamo sequenziato cellule normali e tumorali, possiamo confrontare i genomi e scoprire quali mutazioni abbiamo acquisito nelle cellule tumorali, e questo potrebbe darci un suggerimento su quali alterazioni potrebbero essere quelle rilevanti per il cancro di quell'individuo. Questo è esattamente ciò che è stato fatto negli ultimi 15 anni circa, dove i tumori di decine di migliaia di individui sono stati sequenziati e le mutazioni al loro interno sono state identificate».

Praticamente tutti conoscono qualcuno a cui è stato diagnosticato un cancro e non esiste una cura universale. Tuttavia, il Dr. Singh ha poi discusso la promessa dell'oncologia di precisione, in cui uno scienziato sequenzia il tumore di un paziente, identifica le sue mutazioni del DNA ed esegue un'analisi computazionale per determinare quali alterazioni possono essere prese di mira. L'immunoterapia è un approccio per sfruttare il sistema immunitario di qualcuno per colpire i loro tumori. Un'immunoterapia promettente e in arrivo è quella di progettare vaccini personalizzati per ogni individuo e questi vaccini evocano una risposta immunitaria ai loro tumori.

Il Dr. Singh spiega che il modo in cui funziona è che ognuno dei nostri sistemi immunitari ha 6 diverse copie dei geni classici del complesso maggiore di istocompatibilità (MHC) di classe I. Esistono oltre 13,000 diverse varianti MHC di questi geni, quindi ogni persona ha un diverso insieme di geni MHC. Alcune mutazioni all'interno delle cellule tumorali danno luogo a proteine ​​"estranee" e alcune di queste possono essere legate dagli MHC di un individuo. Questi complessi di MHC legati a un frammento di proteina derivata dal cancro sono riconosciuti dalle cellule immunitarie e possono attivare una risposta immunitaria. Questo è altamente personalizzato poiché il tumore di ogni individuo può avere mutazioni diverse e ogni individuo ha MHC diversi. Gli scienziati stanno utilizzando l'apprendimento automatico per prevedere quali varianti MHC legano quali peptidi, il che, si spera, farà avanzare l'efficacia dell'immunoterapia e alla fine porterà alla progettazione di vaccini neoantigenici personalizzati.

La varietà dei geni MHC varia notevolmente in tutto il mondo, spiega il dottor Singh. La maggior parte degli alleli MHC non ha dati di legame ad essi associati e quelli che hanno dati sul loro legame sono sbilanciati a favore di alcuni gruppi razziali. È importante quando si testa un set di dati non solo concentrarsi sulle prestazioni complessive, ma anche considerare le sottopopolazioni di dati in modo che tutti abbiano pari accesso ai potenziali benefici di questa ricerca.

Il training set deve essere analizzato per la distorsione prima di essere applicato. Inoltre, i metodi per stimare le prestazioni su dati invisibili possono rivelare errori nei dati su cui è stato addestrato. La raccolta di dati in modo imparziale è essenziale per limitare la possibilità di bias in seguito nell'utilizzo dell'algoritmo. Le aree di lavoro futuro su questo argomento si stanno concentrando su procedure di formazione alternative e strategie algoritmiche per la raccolta di dati mirati. Nel complesso, è fondamentale dare la priorità allo sviluppo di approcci equi di medicina di precisione in modo che le terapie e la ricerca a valle siano eque.

La dott.ssa Moses ha parlato successivamente e ha contestualizzato come gli algoritmi di legame eGFR e MHC-peptide si inseriscono in un ecosistema più ampio di come gli algoritmi medici influenzano i risultati sociali. Spiega che gli scienziati utilizzano algoritmi e intelligenza artificiale per prevedere i risultati a cui teniamo da proxy che possono essere facilmente misurati e che tali proxy possono essere imprecisi. Per rendere gli algoritmi medici ancora più complicati, interagiscono costantemente tra loro in modi imprevedibili, quindi l'intera portata degli algoritmi sulla diagnosi di un paziente è in genere poco chiara. Pertanto, è fondamentale utilizzare gli algoritmi con cautela, soprattutto perché quando gli algoritmi falliscono possono essere più dannosi per i più vulnerabili.

Capire chi ha un impatto su un algoritmo e perché è una parte importante dell'equità medica. Il dottor Moses fa un passo indietro e definisce l'equità. La grafica comune utilizzato per differenziare l'equità dall'uguaglianza, con individui con 3 altezze diverse che lottano per vedere una partita di baseball e modi diversi per sostenerli, è difettoso anche nella terza immagine che rimuove la barriera perché suggerisce che c'è qualcosa di inerente alla persona come perché hanno bisogno del sostegno piuttosto che delle ragioni sociali che possono aver causato l'iniquità in primo luogo.

Il Dr. Moses ha mostrato un grafico alternativo per definire l'equità in una società con ingiustizie sistemiche (Copyright 2020 di Nicolás E. Barceló e Sonya Shadravan (Artista: Aria Ghalili)):

Questo grafico rivela che non tutti possono trarre vantaggio solo dalla rimozione della barriera, ma ci sono problemi profondamente radicati che devono essere affrontati per raggiungere l'equità.

Gli scienziati informatici dovrebbero sempre tenere a mente questo importante contesto, sostiene il dott. Moses. Spesso è difficile identificare i presupposti che erano presenti nella creazione degli algoritmi, anche con gli algoritmi più semplici. È anche facile usare una correlazione statistica per prevedere un risultato e presumere che la correlazione sia uguale alla causalità, ma questo è un errore.

Il dottor Moses continua fornendo esempi concreti di algoritmi iniqui che sono in uso nella società odierna in altri domini. Ad esempio, algoritmi nel sistema di giustizia penale che sostituiscono la cauzione monetaria per la custodia cautelare. L'intento è che il processo sia un metodo imparziale basato sui dati per trattenere coloro che sono un pericolo o un rischio elevato per non presentarsi al processo. Tuttavia, gli algoritmi presentano molti difetti sia nella capacità dell'algoritmo di fare previsioni corrette e accurate sia nei pregiudizi del sistema di cui fa parte l'algoritmo, inclusi input distorti e interpretazioni distorte degli output. Un altro esempio di come il pregiudizio razziale sia perpetuato nel sistema di giustizia penale dagli algoritmi è il software di riconoscimento facciale. Mentre il riconoscimento facciale ha dimostrato di essere meno accurato nell'identificare i volti femminili dalla pelle più scura, sono i volti maschili neri che sono stati spesso identificati erroneamente da questi algoritmi che hanno portato a falsi arresti. Ciò dimostra come il pregiudizio che colpisce maggiormente un gruppo (donne nere) in termini di classificazione accurata, possa avere il maggiore impatto su un altro gruppo (uomini neri) a causa dei pregiudizi nel sistema di giustizia penale

Gli algoritmi possono esacerbare i pregiudizi umani e possono anche essere respinti se non rafforzano il giudizio che avresti espresso senza consultare l'algoritmo. Questo vale anche per gli algoritmi distorti in medicina. Ad esempio, i pulsossimetri sono meno accurati nel rilevare i livelli di ossigeno nella pelle più scura, il che può portare a una sottodiagnosi di malattie respiratorie come il COVID grave. Usare la quantità di denaro speso per l'assistenza sanitaria come indicatore della salute di qualcuno è un'altra misura iniqua. Gli esempi descritti dal Dr. Eneanya e dal Dr. Singh, l'insufficienza renale scontata del rene eGFR negli afroamericani e i set di dati genomici che rappresentano in modo eccessivo l'ascendenza europea, sono altri esempi importanti di algoritmi distorti in medicina che hanno pericolose conseguenze a valle per le persone colpite. L'equazione eGFR è stata utilizzata per identificare i prigionieri abbastanza malati da essere rilasciati dal carcere durante COVID, il che ha comportato il rifiuto del rilascio a un uomo afroamericano perché la sua funzione renale era sovrastimata.

Il feedback può migliorare gli algoritmi o esacerbarne i danni. Gli algoritmi non sono una strada a senso unico, poiché mirano a prevedere il comportamento dai dati e la previsione di un anno influisce sui dati dell'anno successivo. Gli algoritmi dovrebbero mirare a ridurre i pregiudizi nel tempo; ad esempio, le udienze per la cauzione dovrebbero aiutare gli imputati a presentarsi al processo piuttosto che prevedere i fallimenti; la polizia dovrebbe mirare a ridurre sia la criminalità che i falsi arresti. Gli algoritmi utilizzati in più domini non dovrebbero mai essere scolpiti nella pietra perché ci sarà un feedback tra persone, algoritmi e contesto sociale.

Il dottor Moses ha proposto anche ulteriori percorsi in avanti: rimuovere i pregiudizi dai set di dati, mettere in discussione le ipotesi, invertire (non rafforzare) i pregiudizi sistemici, valutare con una diversità di prospettive, richiedere algoritmi trasparenti e spiegabili e utilizzare implementazioni graduali e adattive. La percezione comune è che gli algoritmi rimuovano in qualche modo i pregiudizi, ma in realtà spesso codificano i pregiudizi e dobbiamo diffidare degli algoritmi e dei loro risultati.

La parte finale del panel è stata una sessione di domande e risposte. Il moderatore Dr. Siek ha dato il via alla sessione chiedendo: "come possono gli algoritmi e i dati non aggravare i danni?"

  • Dr. Eneanya: Se un ricercatore si ferma alla razza quando cerca elementi di differenziazione in un algoritmo, è pigro e scientificamente non valido. Geneticamente, gli esseri umani sembrano più simili tra le razze che all'interno. È più importante pensare alle caratteristiche biologiche che hanno effettivamente un impatto su un sistema umano come i reni. Ad esempio, durante il test del pulsossimetro, i ricercatori avrebbero dovuto consultare un dermatologo per testare e convalidare i pulsossimetri in base a diverse tonalità della pelle, piuttosto che utilizzare un tipo di dispositivo per persone con diverse tonalità della pelle.
  • Dr. Moses: Dovremmo usare lo stesso approccio per convalidare gli algoritmi dopo che sono stati messi in uso. Riconoscere la razza come un costrutto sociale consente di notare che gli studi alla cieca sulla razza hanno un impatto. È importante cercare la distinzione tra i gruppi per identificare potenziali disparità che l'algoritmo sta rafforzando. Devi valutare se l'algoritmo sta minimizzando i problemi o migliorandolo?
  • Dr. Singh: La razza non dovrebbe mai essere utilizzata come input, ma può essere utilizzata per valutare gli output per bias. Se non pensassimo alla razza non potremmo nemmeno dire che ci sono disparità di salute. Anche la raccolta di dati genomici e la categorizzazione per ascendenza è una metodologia errata. Dobbiamo assicurarci di valutare se i metodi funzionano bene tra le popolazioni.
  • Dr. Eneanya: Quando stiamo diversificando una popolazione di studio, dobbiamo abbandonare il semplice coinvolgimento di gruppi di bianchi o neri. Dobbiamo esaminare più differenze all'interno di questi gruppi come fattori come lo stato sociale, il genere, la sessualità, ecc. Dobbiamo esaminare l'intero quadro e non solo i set di dati sulla diversità basati sulla razza.
  • Dr. Moses: Gli algoritmi sono esattamente i tipi di strumenti che dovrebbero aiutarci a farlo, ci sono molte potenziali strategie informatiche che possono aiutare.
  • Dr. Singh: Sono d'accordo che gli algoritmi giocano un ruolo enorme qui, quindi come diamo la priorità alla raccolta dei dati? Dobbiamo pensare a come farlo con molta attenzione.

Un membro del pubblico ha quindi chiesto: "Data la grande fretta di sviluppare algoritmi basati sugli attuali set di dati con pregiudizi, ci sono modi per contrastare i pregiudizi nell'algoritmo oltre a eliminare i pregiudizi nel set di dati?" 

  • Dr. Singh: È difficile superare i pregiudizi in un set di dati; è un'area di ricerca attiva. È facile sovra o sotto campionare i dati. Esistono diversi modi per addestrare i modelli ML in cui l'obiettivo generale (in genere una funzione che si sta tentando di ridurre al minimo, in genere utilizzando l'intero set di dati) è l'aspetto dell'ottimizzazione.
  • Dr. Eneanya: Si ritiene che molti algoritmi medici debbano includere la razza per essere più precisi. Tuttavia, le persone devono esaminare criticamente perché la razza viene introdotta in primo luogo? La rimozione della razza come variabile potrebbe non modificare le prestazioni dell'algoritmo tanto quanto potresti pensare. Significa qualcosa (clinicamente) quando i risultati cambiano solo di poco dopo aver rimosso una variabile come la razza?
  • Dr. Singh: Soprattutto non significa nulla quando il tuo set di allenamento e il set su cui lo usi sono molto diversi.

Il dottor Siek ha spinto i relatori con un'altra domanda: "Se potessimo rifare tutto da capo, cosa faremmo diversamente?"

  • Dr. Eneanya: Fermarsi con la razza quando si valutano le ragioni delle differenze nei risultati di salute non avrebbe dovuto accadere. Ad esempio con i livelli di creatinina, dovremmo pensare a cos'altro può influire sulla creatinina? Abbiamo bisogno di set di dati migliori, il che richiede la creazione di fiducia nelle comunità. Questo può sembrare un miglioramento della diversità delle popolazioni sperimentali, valutare l'aspetto del personale dello studio, ecc. Le sovvenzioni del National Institute of Health richiedono sempre più partner basati sulla comunità e specialisti in equità sanitaria come parte del team di ricerca. Dobbiamo cambiare i vecchi set, ma dobbiamo anche costruire set migliori in futuro. Possiamo fare così tanto solo cercando di riconfigurare ciò che è là fuori.
  • Dr. Moses: Al di là di cosa potremmo fare se ricominciassimo, mi piace pensare agli algoritmi come specchi della società. Sono addestrati da tutti su Internet. Usandolo come input per il livello successivo dell'algoritmo, possiamo determinare dove sono i pregiudizi, perché sono presenti e qual è l'impatto futuro. Dobbiamo chiederci come utilizzare questi strumenti quantitativi per capire come risolvere queste situazioni piuttosto che esacerbarle.
  • Dr. Singh: Molti genomi che sono stati raccolti non rappresentano la popolazione in generale. Dobbiamo iniziare con il coinvolgimento di diversi gruppi di persone.

La domanda finale del pubblico è stata: “Finché non arriveremo a un punto in cui avremo un quadro genomico completo di tutti gli esseri umani, ci sarà entusiasmo nell'usare ML e algoritmi. Quali sono le cose reali a livello di revisione tra pari che possiamo fare ora in modo da non doverle sistemare in 30 anni?

  • Dr. Eneanya: Perfetto è nemico del bene. Dobbiamo fare il meglio che possiamo. Possiamo identificare i pregiudizi, quindi fare del nostro meglio per andare avanti. Esistono barriere che non hanno nulla a che fare con gli algoritmi clinici. Il semplice aggiustamento dell'algoritmo eGFR eliminando la razza non risolverà le disparità delle malattie renali. Molto lavoro deve essere fatto sugli aspetti multivariabili della repressione.
  • Dr. Moses: Il lavoro che tu [Dr. Eneanya] hanno fatto per riprogettare l'algoritmo per tutti è esattamente come andare avanti. Dobbiamo sistemare il sistema. Usando anche il fatto che doveva essere riparato; era facile vedere il pregiudizio scritto nell'equazione. L'equazione del rene funge da specchio per una società che ha permesso di codificare la razza in un modo che ha svantaggiato per decenni gli afroamericani. Il pregiudizio in quell'equazione era esplicito e deliberato. In futuro sarà molto più difficile identificare i bias in algoritmi più complessi.

Resta sintonizzato per un altro riepilogo del panel sponsorizzato da AAAS 2023 CCC!

spot_img

L'ultima intelligenza

spot_img