Zephyrnet-logo

Hvordan kunstig intelligens først vil finne veien inn i mental helse – DATAVERSITET

Dato:

Oppstart av kunstig intelligens (AI) Woebot Health kom nylig med nyhetene for noen av sine katastrofalt mangelfulle kunstige bot-svar på tekstmeldinger som ble sendt til den etterligner en psykisk helsekrise. Woebot, som samlet inn 90 millioner dollar i en serie B-runde, svarte at den ikke er ment for bruk under kriser. Bedriftsledelse forventer sørgelig at pasienter, som kanskje ikke tenker helt rasjonelt, skal ha anerkjennelse til å slutte å bruke sin typiske form for kommunikasjon og nå ut til et alternativt system.

Mens leger holdes ansvarlige for skade påført pasienter for behandling, holdes ikke oppstartsselskaper som ønsker å gå inn i dette området til samme standard. For å gjøre vondt verre for sårbare pasienter er heller ikke disse systemene holdt til de samme personvernstandardene. Å gå inn i AI-området og samhandle direkte med pasienter er spesielt komplisert fordi mange pasienter rutinemessig opplever svekkede kriser, under terskelen for å måtte ringe 911, noe som gjør at en bot som ikke er utstyrt for å håndtere kriser, mest sannsynlig ikke er godt rustet til å håndtere plagene pasienter opplever på. en daglig basis.

Til tross for risikoen forbundet med kunstig og utilsiktet kløende pasientkriser, samlet oppstart av mental helse inn i dette området totalt 1.3 milliarder dollar i første halvdel av 2022. Dessverre er det mange vanskeligheter med å kommunisere direkte med pasienter, og AI er ennå ikke klar for denne oppgaven. Ord kan brukes i slang eller med alternative betydninger. Betydningen av en setning kan endres avhengig av pasientens historie, kulturelle verdier, gester, prosodi og tonefall. Videre er det viktig å vurdere en pasients underbevisste motiver i en terapeutisk økt – noe som ikke lett kan belyses fra AI.

Så mye som kunstig intelligens kan være i stand til å oppdage bokstavelige betydninger av ord, vil den ikke være i stand til å forstå meningen bak det som er usagt i den grad en menneskelig terapeut kan. Gitt antallet vanskeligheter med å erstatte menneskelige terapeuter, er det mer sannsynlig at kunstig intelligens har en innvirkning bak kulissene på andre måter.

Selv om det er mange utfordringer når man stoler på en kunstig bot for å samhandle med pasienter, er det fortsatt områder der kunstig intelligens kan øke beslutningstakingen. Helseforsikringsselskaper ser allerede verdien av AI i å redusere kostnadene ved å identifisere pasienter som er høye brukere av helsetjenester. Forskrivende tilbydere mottar rutinemessig meldinger fra helseforsikringsselskaper om uregelmessig påfyll av resepter for å oppmuntre til seponering av resepter som ikke brukes optimalt. Faktisk har store forsikringsselskaper betydelige datasett som for tiden analyseres for å forutsi utbruddet av Alzheimers, diabetes, hjertesvikt og kronisk obstruktiv lungesykdom (KOLS). Faktisk, AI har allerede blitt FDA-godkjent for spesifikke bruksområder, og for tiden skinner AI når den brukes på et veldig spesifikt klinisk problem. AI-systemer søkes i utgangspunktet for å forbedre klinisk dømmekraft i stedet for å erstatte klinisk dømmekraft. Ideelt sett vil AI øke klinikerens produktivitet ved å håndtere hverdagslige oppgaver og varsle om det som kan være tvetydig og krever ytterligere etterforskning av et menneske. I følge forsikringsselskapet Optum overvåker de tre beste AI-applikasjonene data med wearables, akselererer kliniske studier og forbedrer nøyaktigheten av helsevesenets koding. De nåværende målene er ikke å øke mengden data, men å presentere dataene på en måte som er meningsfull og handlingsbar av klinikeren.

Kunstig intelligens vil begynne å påvirke leverandører med informative tips og varsler, og dermed bidra til å øke beslutningstaking og redusere menneskelige feil. Utøvelsen av medisin er full av utenatlige oppgaver som er modne muligheter for å bli overført til en datamaskin. For eksempel er en vanlig anvendelse av AI i evalueringen av netthinnebilder, som lar øyeleger fokusere på andre medisinske områder de synes er mer givende. Når kunstig intelligens kommer inn i helsevesenet, bør klinikere ikke bekymre seg for om de vil bli erstattet, men i stedet for hvordan deres praksis vil fortsette å utvikle seg over tid – og forhåpentligvis til det bedre.

En vanskelighet med å bruke AI på leverandørområdet er at medisinske journaler ikke er ensartet strukturert, og stiler er svært varierende fra leverandør til leverandør. Medisinsk journal kan også inneholde iboende skjevhet, avhengig av pasientpopulasjonen som er mest typisk for den praksisen. Bias matet inn i et AI-system vil gi et partisk resultat. Dermed er "hva" av AI ikke den eneste viktige faktoren i dens anvendelse, men hvordan den brukes og hva som gjøres med resultatene er også veldig meningsfull i virkningen den har. Tips og varsler som vises i øyeblikk når klinikeren er distrahert eller vant til å se en annen skjerm, kan bli oversett. Brukeropplevelsen av AI vil ha en innvirkning på varslingstretthet, et velkjent fenomen nylig som har ført til noen landemerketilfeller. Dermed er AI bare like virkningsfull som mediet den leveres i og brukerens tilstand på det tidspunktet den presenteres.

Hvis vi har lært noe av de nyhetsverdige AI-tabberne, er det at vi kanskje ikke holder AI til de samme personvernstandardene som mennesker, men vi holder den til en høyere standard enn typisk menneskelig ytelse. Det ville være helt uakseptabelt for et AI-system å skade en enkelt pasient. Vi forventer at AI ikke bare skal yte bedre enn mennesker, men ikke skade noen pasienter. Så foreløpig vil AI fortsette å jobbe med sin alkymiske magi i bakgrunnen, stille og rolig ta ansvar – eller ikke – for hvordan det påvirker helsevesenet.

spot_img

Siste etterretning

spot_img