Dekodowanie mózgu

Świat wcale nie wygląda tak, jak go widzimy. A mówiąc dokładniej, świat wygląda inaczej dla każdego ze stworzeń, które na niego patrzy.

My rozróżniamy 6 kolorów, podczas gdy np. psy niektóre kolory widzą w odcieniach niebieskiego, żółci i szarości, muchy patrzą na świat w slow motion, bo ich oczy rejestrują 200 obrazów na sekundę – podczas gdy nasze 20 (dlatego tak trudno je złapać), a byki widzą tylko żółty i szary (więc to nie czerwień płachty je rozjusza, lecz potrząsanie nią przez torreadora).

Żeby było ciekawiej, to, co widzą nasze ludzkie oczy, różni się od tego, co widzi nasz mózg. Wytwarza on bowiem wizualne treści percepcyjne także wtedy, gdy oczy są zamknięte – np. podczas snu.

Uczeni z japońskich Krajowych Instytutów Nauki i Technologii Kwantowej i Uniwersytetu w Osace postanowili zwizualizować te obrazy. Opracowali technologię, która mierzy aktywność wizualną mózgu, umożliwiając generatywnej sztucznej inteligencji odtwarzanie wyglądu obrazów w połączeniu z technikami predykcyjnymi. Uczestnikom badań, które przeprowadzili, pokazali 1200 obrazów obiektów i krajobrazów, analizując związek między reakcjami mózgu na każdy z nich za pomocą tzw. funkcjonalnego rezonansu magnetycznego (fMRI). Te same obrazy wprowadzili do generatywnej AI, by nauczyć ją wzorców reagowania na nie ludzkiego mózgu.

W ten sposób przy wykorzystaniu sztuczniej inteligencji powstały pierwsze w historii mentalne obrazy obiektów wytwarzane przez ludzki mózg: samolotu z czerwonymi skrzydłami na skrzydłach i lamparta (drugi z nich, jak się okazało, wcale nie przypominał lamparta, lecz raczej poczciwego Jar Jar Binksa z „Gwiezdnych wojen”).

Technologia, którą Japończycy nazwali „dekodowaniem mózgu”, podobno ma wielką przyszłość w medycynie i opiece społecznej.

Zdjęcie zajawka: vecstock/Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz