Logo Zephyrnet

Come l'intelligenza artificiale troverà la sua strada nella salute mentale – DATAVERSITY

Data:

La startup di intelligenza artificiale (AI) Woebot Health ha recentemente fatto notizia per alcune delle sue risposte disastrosamente imperfette di bot artificiali ai messaggi di testo che gli sono stati inviati simulando una crisi di salute mentale. Woebot, che ha raccolto 90 milioni di dollari in un round di serie B, ha risposto che non è destinato all’uso durante le crisi. La leadership aziendale si aspetta tristemente che i pazienti, che potrebbero non pensare in modo completamente razionale, abbiano il riconoscimento di smettere di usare la loro tipica forma di comunicazione e di rivolgersi a un sistema alternativo.

Mentre i medici sono ritenuti responsabili dei danni inflitti ai pazienti in cura, le startup che cercano di entrare in questo spazio non sono tenute allo stesso standard. A peggiorare le cose per i pazienti vulnerabili, inoltre, questi sistemi non sono soggetti agli stessi standard di privacy. Entrare nello spazio dell'intelligenza artificiale e interagire direttamente con i pazienti è particolarmente complicato perché molti pazienti sperimentano abitualmente crisi attenuate, al di sotto della soglia della necessità di chiamare i servizi di emergenza, rendendo molto probabilmente un bot non attrezzato per gestire le crisi non ben attrezzato per gestire le difficoltà che i pazienti sperimentano una base quotidiana.

Nonostante i rischi connessi a crisi di pazienti pasticciate artificialmente e involontariamente, le startup di salute mentale attirate in questo spazio hanno raccolto un totale di 1.3 miliardi di dollari nella prima metà del 2022. Sfortunatamente, ci sono molte difficoltà nel comunicare direttamente con i pazienti e l’intelligenza artificiale non è ancora pronta per questo compito. Le parole possono essere usate in slang o con significati alternativi. Il significato di una frase può cambiare a seconda della storia del paziente, dei valori culturali, dei gesti, della prosodia e del tono di voce. Inoltre, è importante considerare le motivazioni subconsce del paziente in una sessione terapeutica, che non sono facilmente chiaribili dall'intelligenza artificiale.

Per quanto l’intelligenza artificiale possa essere in grado di rilevare il significato letterale delle parole, non sarà in grado di comprendere il significato dietro ciò che non viene detto nella misura in cui può farlo un terapista umano. Considerando le numerose difficoltà nel sostituire i terapisti umani, è più probabile che l’intelligenza artificiale abbia un impatto dietro le quinte in altri modi.

Sebbene ci siano molte sfide quando si fa affidamento su un bot artificiale per interagire con i pazienti, ci sono ancora aree in cui l’intelligenza artificiale può aumentare il processo decisionale. Le compagnie di assicurazione sanitaria vedono già il valore dell’intelligenza artificiale nel ridurre i costi identificando i pazienti che utilizzano fortemente i servizi sanitari. I fornitori di prescrizioni ricevono regolarmente notifiche dalle compagnie di assicurazione sanitaria relative a ricariche irregolari di prescrizioni per incoraggiare l'interruzione delle prescrizioni che non vengono utilizzate in modo ottimale. In effetti, le grandi compagnie assicurative possiedono insiemi di dati considerevoli che vengono attualmente analizzati per prevedere l'insorgenza dell'Alzheimer, del diabete, dell'insufficienza cardiaca e della malattia polmonare ostruttiva cronica (BPCO). Infatti, L’intelligenza artificiale è già stata approvata dalla FDA per usi specifici e attualmente l’intelligenza artificiale brilla quando viene applicata a un problema clinico molto specifico. Inizialmente si cerca di utilizzare sistemi di intelligenza artificiale per migliorare il giudizio clinico piuttosto che sostituirlo. Idealmente, l’intelligenza artificiale migliorerà la produttività dei medici gestendo compiti banali e allertando ciò che potrebbe essere equivoco e richiedere ulteriori indagini da parte di un essere umano. Secondo la compagnia assicurativa Optum, le tre principali applicazioni di intelligenza artificiale stanno monitorando i dati con dispositivi indossabili, accelerando gli studi clinici e migliorando la precisione della codifica sanitaria. Gli obiettivi attuali non sono aumentare la quantità di dati ma presentarli in un modo che sia significativo e utilizzabile dal medico.

L’intelligenza artificiale inizierà ad avere un impatto sui fornitori con suggerimenti e avvisi informativi, contribuendo così ad aumentare il processo decisionale e a ridurre l’errore umano. La pratica della medicina è piena di compiti meccanici che rappresentano opportunità mature da scaricare su un computer. Ad esempio, un’applicazione comune dell’intelligenza artificiale è nella valutazione delle immagini della retina, che consente agli oftalmologi di concentrarsi su altre aree della medicina che trovano più gratificanti. Man mano che l’intelligenza artificiale si fa strada nell’assistenza sanitaria, i medici non dovrebbero preoccuparsi se verranno sostituiti, ma piuttosto di come la loro pratica continuerà ad evolversi nel tempo – e si spera in meglio.

Una difficoltà nell’applicare l’intelligenza artificiale allo spazio dei fornitori è che le cartelle cliniche non sono strutturate in modo uniforme e gli stili variano molto da fornitore a fornitore. La cartella clinica può contenere anche pregiudizio intrinseco, a seconda della popolazione di pazienti più tipica di quella pratica. I pregiudizi immessi in un sistema di intelligenza artificiale produrranno un risultato distorto. Pertanto, il “cosa” dell’IA non è l’unico fattore importante nella sua applicazione, ma anche il modo in cui viene applicata e cosa viene fatto con i risultati è molto significativo per l’impatto che ha. I suggerimenti e gli avvisi visualizzati nei momenti in cui il medico è distratto o è abituato a visualizzare un altro schermo potrebbero essere trascurati. L’esperienza dell’utente dell’intelligenza artificiale avrà un impatto sull’affaticamento da allerta, un fenomeno ben noto di recente che ha portato ad alcuni casi emblematici. Pertanto, l’IA ha un impatto pari al mezzo in cui viene fornita e allo stato dell’utente nel momento in cui viene presentata.

Se abbiamo imparato qualcosa dagli errori degni di nota dell’IA, è che forse non rispettiamo gli stessi standard di privacy degli esseri umani, ma la manteniamo a uno standard più elevato rispetto alle tipiche prestazioni umane. Sarebbe del tutto inaccettabile che un sistema di intelligenza artificiale danneggi un singolo paziente. Ci aspettiamo che l’intelligenza artificiale non solo funzioni meglio degli esseri umani, ma non danneggi alcun paziente. Quindi, per ora, l’intelligenza artificiale continuerà a operare la sua magia alchemica in background, assumendosi silenziosamente la responsabilità – o meno – di come influisce sull’assistenza sanitaria.

spot_img

L'ultima intelligenza

spot_img