Chatboty w opiece zdrowotnej? Lepiej ostrożnie

Korzystanie z chatbotów generatywnej sztucznej inteligencji w rodzaju ChatGPT czy Bard w placówkach opieki medycznej może być mocno ryzykowne.

Dowodzi tego badanie naukowców z Uniwersytetu Oxfordzkiego, na które powołuje się „The Guardian”.

O jakim ryzyku mowa? Otóż pracownicy służby zdrowia, coraz częściej wykorzystujący chatboty do tworzenia planów opieki dla pacjentów, mogą działać w oparciu o informacje wprowadzające w błąd, nieprecyzyjnie lub stronnicze.

Na dodatek w nie można w takim przypadku zagwarantować prywatności danych, ponieważ jakiekolwiek dane pacjenta, które trafią do chatbota AI, zostaną wykorzystane do szkolenia modelu językowego. To z kolei stwarza ryzyko, że dane te mogą zostać przekazane komuś innemu.

Osobnym problemem jest to, że zbyt duże poleganie na AI w opracowywaniu planów zdrowotnych dla pacjentów może skutkować obniżeniem standardów medycznych usług medycznych – zwracają uwagę uczeni z Oxfordu.

Zakres zastosowania AI w opiece medycznej jest coraz większy. Na Zachodzie sztuczna inteligencja jest dziś niemal powszechnie wykorzystywana m.in. do analizy zdjęć rentgenowskich czy skanów.

Szacuje się, że wartość rynku opieki zdrowotnej opartej na AI wzrośnie z 11 miliardów w 2021 r. do 187 miliardów dolarów w roku 2030.

Zdjęcie zajawka: Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz