Do ustalenia tego, na co jesteś chory, wkrótce wystarczy tylko, że zaczniesz mówić. Cokolwiek.
Przychodzi baba do lekarza, a on ją pyta, co jej jest.
– Teściowa – odpowiada baba.
Samo „teściowa” wystarczy do starego kawału, ale nie wystarczy, by rozmowa baby z lekarzem miała sens. Ale gdy już baba na przykład powie: „Teściowa. Mam troje wnucząt, zięć jest bezrobotny, a córka stroi się, choć ciągle ode mnie pożycza, a węgiel na zimę to nie wiem, za co kupimy” – jej rozmowa z lekarzem, taka w realu, a nie dla kawału, w niedalekiej przyszłości będzie miała poważne konsekwencje. Nawet jeśli baba nie powie o swoim zdrowiu ani słowa. Wystarczy, że powie cokolwiek, choćby pożali się na córkę i zięcia, by lekarz mógł ocenić, czy wszystko w porządku z jej nerkami, czy nie ma, nie daj Boże, wrzodów na żołądku i czy, dajmy na to, na płucach coś jej ostatnio nie siadło.
Jaki w tym sens? Otóż sztuczna inteligencja będzie w stanie diagnozować stan zdrowia człowieka już nie tylko na podstawie bezpośredniego monitorowania pracy ludzkich organów, a jedynie w oparciu o analizę danych ukrytych w samym brzmieniu, tonie ludzkiego głosu. Nie będzie już nawet ważne to, co sam pacjent powie o swoim samopoczuciu. Może nawet skłamać, że czuje się świetnie, a dzięki AI lekarz i tak będzie wiedział swoje – bez dotykania, prześwietlania, badania próbek, słuchania stetoskopu.
National Institutes of Health (NIH), narodowa amerykańska agencja wspierająca medyczne badania naukowe, finansuje wielki projekt polegający na gromadzeniu danych o ludzkim głosie, na którym można byłoby wytrenować AI zdolną do diagnozowania pacjentów tylko na podstawie ich mowy.
Już sam ludzki głos – abstrahując od treści, których przekazywaniu służy – jest przebogatą kopalnią informacji na temat tego, jak się mamy. Są zapisane w drganiach strun głosowych czy wzorcach oddechu. Kiedy siorbiesz – możesz mieć udar, a gdy mówisz powoli i obniżonym tonem – możesz mieć parkinsona.
W laboratoriach akustycznych NIH zostaną zebrane dane głosowe 30 tysięcy osób i dane dotyczące ich biomarkerów (dane kliniczne i informacje genetyczne). Na początek w pięciu obszarach: zaburzenia głosu, neurologiczne, nastroju, oddechowe dziecięce (np. autyzm) i opóźnienia mowy.
W ciągu czterech lat zostanie zbudowana baza danych do szkolenia AI, na podstawie której powstanie aplikacja. Dzięki niej telefon, analizując zmiany w twoim głosie, podpowie ci np., do jakiego lekarza masz się wybrać.
Zdjęcie zajawka: Drazen Zigic/Freepik.com
Zostaw komentarz
You must be logged in to post a comment.