Zephyrnet-logo

Het potentieel van kunstmatige intelligentie om rechtvaardigheid in de gezondheidszorg te brengen

Datum:

De gezondheidszorg bevindt zich op een kruispunt, een punt waar kunstmatige-intelligentietools worden geïntroduceerd in alle delen van de ruimte. Deze introductie gaat gepaard met hoge verwachtingen: AI heeft het potentieel om bestaande technologieën sterk te verbeteren, gepersonaliseerde medicijnen aan te scherpen en, met een instroom van big data, historisch achtergestelde bevolkingsgroepen ten goede te komen.

Maar om die dingen te doen, moet de gezondheidszorggemeenschap ervoor zorgen dat AI-tools betrouwbaar zijn en dat ze uiteindelijk niet leiden tot vooroordelen die in het huidige systeem bestaan. Onderzoekers van de MIT Abdul Latif Jameel Clinic for Machine Learning in Health (Jameel Clinic), een initiatief om AI-onderzoek in de gezondheidszorg te ondersteunen, roepen op tot het creëren van een robuuste infrastructuur die wetenschappers en clinici kan helpen bij het nastreven van deze missie.

Eerlijke en rechtvaardige AI voor de gezondheidszorg

De Jameel Clinic organiseerde onlangs de AI for Health Care Equity-conferentie om het huidige state-of-the-art werk in deze ruimte te beoordelen, inclusief nieuwe machine learning-technieken die eerlijkheid, personalisatie en inclusiviteit ondersteunen; identificeren van de belangrijkste impactgebieden in de gezondheidszorg; en de gevolgen van regelgeving en beleid te bespreken.

Bijna 1,400 mensen woonden de conferentie virtueel bij om te horen van opinieleiders in de academische wereld, de industrie en de overheid die werken aan het verbeteren van de gelijkheid in de gezondheidszorg en de technische uitdagingen in deze ruimte en de paden voorwaarts beter begrijpen.

Tijdens het evenement kondigden Regina Barzilay, de School of Engineering Distinguished Professor of AI and Health en de AI-faculteitsleider voor Jameel Clinic, en Bilal Mateen, klinische technologieleider bij de Wellcome Trust, de Wellcome Fund-subsidie ​​aan die aan Jameel Clinic is toegekend om een communityplatform dat rechtvaardige AI-tools in de gezondheidszorg ondersteunt.

Het uiteindelijke doel van het project is niet om een ​​academische vraag op te lossen of een specifieke onderzoeksbenchmark te bereiken, maar om het leven van patiënten wereldwijd daadwerkelijk te verbeteren. Onderzoekers van Jameel Clinic staan ​​erop dat AI-tools niet moeten worden ontworpen met een enkele populatie in gedachten, maar in plaats daarvan moeten worden gemaakt om herhalend en inclusief te zijn, om elke gemeenschap of subpopulatie te dienen. Om dit te doen, moet een bepaalde AI-tool worden bestudeerd en gevalideerd in veel populaties, meestal in meerdere steden en landen. Ook op de projectwensenlijst staat het creëren van open toegang voor de wetenschappelijke gemeenschap in het algemeen, met respect voor de privacy van patiënten, om de inspanning te democratiseren.

"Wat ons als financier steeds duidelijker werd, is dat de aard van de wetenschap de afgelopen jaren fundamenteel is veranderd en aanzienlijk meer computationeel is ontworpen dan ooit tevoren", zegt Mateen.

Het klinische perspectief

Deze oproep tot actie is een reactie op de gezondheidszorg in 2020. Op de conferentie sprak Collin Stultz, hoogleraar elektrotechniek en informatica en cardioloog in het Massachusetts General Hospital, over hoe zorgverleners doorgaans behandelingen voorschrijven en waarom deze behandelingen vaak onjuist.

Simpel gezegd: een arts verzamelt informatie over zijn patiënt en gebruikt die informatie vervolgens om een ​​behandelplan op te stellen. "De beslissingen die zorgverleners nemen, kunnen de kwaliteit van het leven van patiënten verbeteren of ze langer laten leven, maar dit gebeurt niet in een vacuüm", zegt Stultz.

In plaats daarvan zegt hij dat een complex web van krachten de behandeling van een patiënt kan beïnvloeden. Deze krachten gaan van hyperspecifiek tot universeel, variërend van factoren die uniek zijn voor een individuele patiënt, tot vooringenomenheid van een zorgverlener, zoals kennis die is verkregen uit gebrekkige klinische onderzoeken, tot brede structurele problemen, zoals ongelijke toegang tot zorg.

Datasets en algoritmen

Een centrale vraag van de conferentie draaide rond hoe ras wordt weergegeven in datasets, aangezien het een variabele is die vloeiend kan zijn, zelfgerapporteerd en gedefinieerd in niet-specifieke termen.

"De ongelijkheden die we proberen aan te pakken zijn groot, opvallend en hardnekkig", zegt Sharrelle Barber, een assistent-professor epidemiologie en biostatistiek aan de Drexel University. “We moeten nadenken over wat die variabele eigenlijk is. Het is echt een teken van structureel racisme”, zegt Barber. “Het is niet biologisch, het is niet genetisch. Dat hebben we keer op keer gezegd."

Sommige aspecten van gezondheid worden puur door de biologie bepaald, zoals erfelijke aandoeningen zoals cystische fibrose, maar de meeste aandoeningen zijn niet eenvoudig. Volgens de oncoloog van het Massachusetts General Hospital, T. Salewa Oseni, neemt onderzoek, als het gaat om de gezondheid en resultaten van de patiënt, aan dat biologische factoren een te grote invloed hebben, maar sociaal-economische factoren moeten net zo serieus worden overwogen.

Zelfs als onderzoekers op het gebied van machine learning reeds bestaande vooroordelen in het gezondheidszorgsysteem detecteren, moeten ze ook de zwakke punten in algoritmen zelf aanpakken, zoals benadrukt door een reeks sprekers op de conferentie. Ze moeten worstelen met belangrijke vragen die zich voordoen in alle ontwikkelingsstadia, van het eerste formuleren van wat de technologie probeert op te lossen tot het toezicht houden op de implementatie in de echte wereld.

Irene Chen, een promovendus aan het MIT die machine learning bestudeert, onderzoekt alle stappen van de ontwikkelingspijplijn door de lens van ethiek. Als eerstejaars doctoraatsstudent was Chen gealarmeerd toen hij een "out-of-the-box" algoritme ontdekte, dat toevallig de mortaliteit van patiënten projecteerde en significant verschillende voorspellingen opleverde op basis van ras. Dit soort algoritme kan ook echte gevolgen hebben; het geeft richting aan de manier waarop ziekenhuizen middelen toewijzen aan patiënten.

Chen begon te begrijpen waarom dit algoritme zulke ongelijkmatige resultaten opleverde. In later werk definieerde ze drie specifieke bronnen van vooringenomenheid die uit elk model konden worden ontward. De eerste is "bias", maar in statistische zin - misschien past het model niet goed bij de onderzoeksvraag. De tweede is variantie, die wordt gecontroleerd door de steekproefomvang. De laatste bron is ruis, wat niets te maken heeft met het aanpassen van het model of het vergroten van de steekproefomvang. In plaats daarvan geeft het aan dat er iets is gebeurd tijdens het gegevensverzamelingsproces, een stap ver voor de modelontwikkeling. Veel systemische ongelijkheden, zoals een beperkte ziektekostenverzekering of een historisch wantrouwen jegens de geneeskunde in bepaalde groepen, worden 'opgerold' tot lawaai.

"Zodra je weet welk onderdeel het is, kun je een oplossing voorstellen", zegt Chen.

Marzyeh Ghassemi, een assistent-professor aan de Universiteit van Toronto en een nieuwe professor aan het MIT, heeft de afweging bestudeerd tussen het anonimiseren van zeer persoonlijke gezondheidsgegevens en ervoor zorgen dat alle patiënten eerlijk vertegenwoordigd zijn. In gevallen zoals differentiële privacy, een machine learning-tool die hetzelfde privacyniveau voor elk datapunt garandeert, begonnen individuen die te "uniek" zijn in hun cohort de voorspellende invloed in het model te verliezen. In gezondheidsgegevens, waar onderzoeken vaak bepaalde populaties ondervertegenwoordigd zijn, "zijn minderheden degenen die er uniek uitzien", zegt Ghassemi.

"We moeten meer data creëren, het moeten diverse data zijn", zegt ze. "Deze robuuste, persoonlijke, eerlijke, hoogwaardige algoritmen die we proberen te trainen, vereisen grootschalige datasets voor onderzoeksgebruik."

Naast Jameel Clinic erkennen andere organisaties de kracht van het gebruik van diverse gegevens om meer rechtvaardige gezondheidszorg te creëren. Anthony Philippakis, chief data officer bij het Broad Institute of MIT en Harvard, presenteerde over het All of Us-onderzoeksprogramma, een ongekend project van de National Institutes of Health dat tot doel heeft de kloof voor historisch onder-erkende populaties te overbruggen door observationele en longitudinale gezondheidsgegevens van meer dan 1 miljoen Amerikanen. De database is bedoeld om te ontdekken hoe ziekten zich voordoen in verschillende subpopulaties.

Een van de grootste vragen van de conferentie, en van AI in het algemeen, draait om beleid. Kadija Ferryman, cultureel antropoloog en bio-ethicus aan de New York University, wijst erop dat AI-regulering nog in de kinderschoenen staat, wat een goede zaak kan zijn. "Er zijn veel mogelijkheden om beleid te creëren met deze ideeën over eerlijkheid en rechtvaardigheid, in tegenstelling tot het hebben van beleid dat is ontwikkeld en vervolgens te proberen een deel van de beleidsregels ongedaan te maken", zegt Ferryman.

Zelfs voordat het beleid in het spel komt, zijn er bepaalde best practices voor ontwikkelaars om in gedachten te houden. Najat Khan, chief data science officer bij Janssen R&D, moedigt onderzoekers aan om “extreem systematisch” te zijn bij het kiezen van datasets. Zelfs grote, veelvoorkomende datasets bevatten inherente vooroordelen.

Nog fundamenteler is het openen van de deur naar een diverse groep toekomstige onderzoekers.

"We moeten ervoor zorgen dat we mensen ontwikkelen, in hen investeren en ze laten werken aan echt belangrijke problemen waar ze om geven", zegt Khan. "Je zult een fundamentele verschuiving zien in het talent dat we hebben."

De AI for Health Care Equity Conference werd mede georganiseerd door de Jameel Clinic van MIT; Faculteit Elektrotechniek en Informatica; Instituut voor Data, Systemen en Maatschappij; Instituut voor Medische Technologie en Wetenschap; en het MIT Schwarzman College of Computing.

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://news.mit.edu/2021/potential-artificial-intelligence-bring-equity-health-care-0601

spot_img

Laatste intelligentie

spot_img