Lekarz, czyli słuchacz

Do ustalenia tego, na co jesteś chory, wkrótce wystarczy tylko, że zaczniesz mówić. Cokolwiek.

Przychodzi baba do lekarza, a on ją pyta, co jej jest.

– Teściowa – odpowiada baba.

Samo „teściowa” wystarczy do starego kawału, ale nie wystarczy, by rozmowa baby z lekarzem miała sens. Ale gdy już baba na przykład powie: „Teściowa. Mam troje wnucząt, zięć jest bezrobotny, a córka stroi się, choć ciągle ode mnie pożycza, a węgiel na zimę to nie wiem, za co kupimy” – jej rozmowa z lekarzem, taka w realu, a nie dla kawału, w niedalekiej przyszłości będzie miała poważne konsekwencje. Nawet jeśli baba nie powie o swoim zdrowiu ani słowa. Wystarczy, że powie cokolwiek, choćby pożali się na córkę i zięcia, by lekarz mógł ocenić, czy wszystko w porządku z jej nerkami, czy nie ma, nie daj Boże, wrzodów na żołądku i czy, dajmy na to, na płucach coś jej ostatnio nie siadło.

Jaki w tym sens? Otóż sztuczna inteligencja będzie w stanie diagnozować stan zdrowia człowieka już nie tylko na podstawie bezpośredniego monitorowania pracy ludzkich organów, a jedynie w oparciu o analizę danych ukrytych w samym brzmieniu, tonie ludzkiego głosu. Nie będzie już nawet ważne to, co sam pacjent powie o swoim samopoczuciu. Może nawet skłamać, że czuje się świetnie, a dzięki AI lekarz i tak będzie wiedział swoje – bez dotykania, prześwietlania, badania próbek, słuchania stetoskopu.

National Institutes of Health (NIH), narodowa amerykańska agencja wspierająca medyczne badania naukowe, finansuje wielki projekt polegający na gromadzeniu danych o ludzkim głosie, na którym można byłoby wytrenować AI zdolną do diagnozowania pacjentów tylko na podstawie ich mowy.

Już sam ludzki głos – abstrahując od treści, których przekazywaniu służy – jest przebogatą kopalnią informacji na temat tego, jak się mamy. Są zapisane w drganiach strun głosowych czy wzorcach oddechu. Kiedy siorbiesz – możesz mieć udar, a gdy mówisz powoli i obniżonym tonem – możesz mieć parkinsona.

W laboratoriach akustycznych NIH zostaną zebrane dane głosowe 30 tysięcy osób i dane dotyczące ich biomarkerów (dane kliniczne i informacje genetyczne). Na początek w pięciu obszarach: zaburzenia głosu, neurologiczne, nastroju, oddechowe dziecięce (np. autyzm) i opóźnienia mowy.

W ciągu czterech lat zostanie zbudowana baza danych do szkolenia AI, na podstawie której powstanie aplikacja. Dzięki niej telefon, analizując zmiany w twoim głosie, podpowie ci np., do jakiego lekarza masz się wybrać.

Zdjęcie zajawka: Drazen Zigic/Freepik.com

Udostępnij:

Powiązane posty

Zostaw komentarz