Logo Zephyrnet

Jak sztuczna inteligencja po raz pierwszy znajdzie zastosowanie w zdrowiu psychicznym – DATAVERSITY

Data:

Woebot Health, start-up zajmujący się sztuczną inteligencją (AI), zyskał niedawno wieść o niektórych katastrofalnie wadliwych reakcjach sztucznych botów na wysyłane do niego wiadomości tekstowe imitujące kryzys zdrowia psychicznego. Woebot, który w rundzie serii B zebrał 90 milionów dolarów, odpowiedział, że nie jest on przeznaczony do użytku podczas kryzysów. Kierownictwo firmy z żalem oczekuje, że pacjenci, którzy być może nie myślą całkowicie racjonalnie, zyskają uznanie, aby zaprzestać używania typowej formy komunikacji i sięgnąć po alternatywny system.

Podczas gdy lekarze ponoszą odpowiedzialność za szkody wyrządzone pacjentom w związku z leczeniem, firmy rozpoczynające działalność, które chcą wejść na tę przestrzeń, nie podlegają tym samym standardom. Co gorsza dla bezbronnych pacjentów, systemy te również nie podlegają tym samym standardom prywatności. Wejście do przestrzeni sztucznej inteligencji i bezpośrednia interakcja z pacjentami jest szczególnie skomplikowana, ponieważ wielu pacjentów rutynowo doświadcza osłabionych kryzysów, poniżej progu konieczności dzwonienia pod numer 911, co sprawia, że ​​bot nie jest wyposażony do radzenia sobie z sytuacjami kryzysowymi najprawdopodobniej nie jest dobrze przygotowany do radzenia sobie z bólami, jakich doświadczają pacjenci codziennie.

Pomimo ryzyka związanego ze sztucznym i niezamierzonym spartaczeniem kryzysów pacjentów, start-upy zajmujące się zdrowiem psychicznym zwabione w tę przestrzeń zebrały łącznie 1.3 miliarda dolarów w pierwszej połowie 2022 r. Niestety istnieje wiele trudności w bezpośredniej komunikacji z pacjentami, a sztuczna inteligencja nie jest jeszcze gotowa dla tego zadania. Słowa mogą być używane w slangu lub w alternatywnych znaczeniach. Znaczenie zdania może się zmieniać w zależności od historii pacjenta, wartości kulturowych, gestów, prozodii i tonu głosu. Co więcej, podczas sesji terapeutycznej ważne jest uwzględnienie podświadomych motywów pacjenta, których nie da się łatwo wyjaśnić na podstawie sztucznej inteligencji.

O ile sztuczna inteligencja będzie w stanie wykryć dosłowne znaczenie słów, o tyle nie będzie w stanie zrozumieć znaczenia tego, co niewypowiedziane, w takim stopniu, w jakim potrafi to zrobić terapeuta-ludzki. Biorąc pod uwagę liczbę trudności w zastąpieniu ludzkich terapeutów, jest bardziej prawdopodobne, że sztuczna inteligencja będzie miała inny wpływ za kulisami.

Chociaż korzystanie ze sztucznego bota w interakcji z pacjentami wiąże się z wieloma wyzwaniami, nadal istnieją obszary, w których sztuczna inteligencja może usprawnić proces podejmowania decyzji. Firmy oferujące ubezpieczenia zdrowotne już dostrzegają wartość sztucznej inteligencji w obniżaniu kosztów poprzez identyfikację pacjentów, którzy często korzystają z usług opieki zdrowotnej. Podmioty przepisujące leki rutynowo otrzymują powiadomienia od zakładów ubezpieczeń zdrowotnych dotyczące nieregularnego uzupełniania recept, aby zachęcić do zaprzestania wydawania recept, które nie są optymalnie wykorzystywane. Rzeczywiście, duże firmy ubezpieczeniowe posiadają pokaźne zbiory danych, które są obecnie analizowane w celu przewidzenia wystąpienia choroby Alzheimera, cukrzycy, niewydolności serca i przewlekłej obturacyjnej choroby płuc (POChP). W rzeczywistości, Sztuczna inteligencja została już zatwierdzona przez FDA do konkretnych zastosowań, a obecnie sztuczna inteligencja wyróżnia się, gdy jest stosowana do bardzo konkretnego problemu klinicznego. Początkowo poszukuje się systemów sztucznej inteligencji, aby usprawnić ocenę kliniczną, a nie zastąpić ocenę kliniczną. W idealnym przypadku sztuczna inteligencja zwiększy produktywność klinicysty, wykonując przyziemne zadania i ostrzegając o tym, co może być niejednoznaczne i wymagać dalszego zbadania przez człowieka. Według firmy ubezpieczeniowej Optum trzy najpopularniejsze zastosowania sztucznej inteligencji to monitorowanie danych za pomocą urządzeń do noszenia, przyspieszanie badań klinicznych i poprawianie dokładności kodowania opieki zdrowotnej. Obecnymi celami nie jest zwiększenie ilości danych, ale przedstawienie ich w sposób znaczący i możliwy do podjęcia przez klinicystę.

Sztuczna inteligencja zacznie wpływać na dostawców za pomocą informacyjnych wskazówek i alertów, pomagając w ten sposób usprawnić proces podejmowania decyzji i ograniczyć błędy ludzkie. Praktyka medyczna jest pełna rutynowych zadań, które doskonale nadają się do przeniesienia na komputer. Na przykład jednym z powszechnych zastosowań sztucznej inteligencji jest ocena obrazów siatkówki, co pozwala okulistom skoncentrować się na innych obszarach medycyny, które uważają za bardziej satysfakcjonujące. W miarę jak sztuczna inteligencja wkracza do opieki zdrowotnej, lekarze nie powinni martwić się tym, czy zostaną zastąpieni, ale raczej tym, jak ich praktyka będzie ewoluować z biegiem czasu – i miejmy nadzieję, że na lepsze.

Jedną z trudności w zastosowaniu sztucznej inteligencji w przestrzeni dostawców jest to, że dokumentacja medyczna nie ma jednolitej struktury, a style są bardzo zróżnicowane w zależności od dostawcy. Dokumentacja medyczna może również zawierać wrodzone nastawienie bia, w zależności od populacji pacjentów, która jest najbardziej typowa dla danej praktyki. Odchylenie wprowadzone do systemu sztucznej inteligencji doprowadzi do stronniczego wyniku. Zatem „co” sztucznej inteligencji nie jest jedynym ważnym czynnikiem w jej zastosowaniu, ale sposób jej zastosowania i to, co zrobiono z wynikami, ma również duże znaczenie, jeśli chodzi o jej wpływ. Wskazówki i alerty pojawiające się w momentach, gdy lekarz jest rozproszony lub przyzwyczajony do patrzenia na inny ekran, mogą zostać przeoczone. Doświadczenia użytkowników związane ze sztuczną inteligencją będą miały wpływ na zmęczenie czujnością, co jest ostatnio dobrze znanym zjawiskiem, które doprowadziło do kilku przełomowych przypadków. Zatem sztuczna inteligencja ma taki wpływ, jak medium, w którym jest dostarczana, oraz stan użytkownika w momencie jej prezentacji.

Jeśli nauczyliśmy się czegokolwiek z godnych uwagi błędów związanych ze sztuczną inteligencją, to tego, że być może nie wymagamy od sztucznej inteligencji takich samych standardów prywatności jak ludzie, ale jednak utrzymujemy ją na wyższym poziomie niż typowe działania człowieka. Całkowicie niedopuszczalne byłoby, gdyby system sztucznej inteligencji wyrządził szkodę pojedynczemu pacjentowi. Oczekujemy, że sztuczna inteligencja nie tylko będzie działać lepiej niż ludzie, ale także nie zaszkodzi żadnemu pacjentowi. Zatem na razie sztuczna inteligencja będzie nadal działać w tle, po cichu, biorąc odpowiedzialność – lub nie – za jej wpływ na opiekę zdrowotną.

spot_img

Najnowsza inteligencja

spot_img