Czyta, mówi, gromadzi góry danych i rekomenduje decyzje ludziom. Dzisiejsza sztuczna inteligencja może wydawać się bardziej ludzka niż kiedykolwiek. Nadal ma jednak kilka krytycznych wad.
Chociaż ChatGPT i wszystkie obecne technologie sztucznej inteligencji są imponujące, pod względem interakcji ze światem fizycznym są nadal bardzo ograniczone. Nawet w przypadku rzeczy, które robią, takich jak rozwiązywanie problemów matematycznych i pisanie esejów, wymagają miliardów szkoleń przykładów, zanim będą w stanie je dobrze wykonać – wyjaśnia badacz NeuroAI w Cold Spring Harbor Laboratory (CSHL), Kyle Daruwalla.
Daruwalla poszukiwał nowych, niekonwencjonalnych sposobów projektowania sztucznej inteligencji, która byłaby w stanie pokonać tego typu przeszkody obliczeniowe.
Kluczem było przenoszenie danych. Obecnie większość energii zużywanej przez współczesne komputery pochodzi z przesyłania danych.
W sztucznych sieciach neuronowych, które składają się z miliardów połączeń, droga do przebycia danych może być bardzo długa. Aby znaleźć rozwiązanie, Daruwalla szukał inspiracji w jednej z najpotężniejszych obliczeniowo i energooszczędnych maszyn na świecie – ludzkim mózgu.
Daruwalla zaprojektował nowy sposób, w jaki algorytmy sztucznej inteligencji mogą znacznie wydajniej przenosić i przetwarzać dane, w oparciu o sposób, w jaki nasze mózgi przyjmują nowe informacje.
Konstrukcja umożliwia poszczególnym „neuronom” sztucznej inteligencji otrzymywanie informacji zwrotnych i dostosowywanie się na bieżąco, zamiast czekać na jednoczesną aktualizację całego obwodu.
Dzięki temu dane nie muszą podróżować tak daleko i są przetwarzane w czasie rzeczywistym.
W naszych mózgach połączenia cały czas się zmieniają i dostosowują – mówi Daruwalla. – To nie jest tak, że wszystko wstrzymujesz, dostosowujesz, a potem znowu jesteś sobą.
Nowy model uczenia maszynowego dostarcza dowodów na niesprawdzoną jeszcze teorię, która koreluje pamięć roboczą z nauką i wynikami w nauce.
Pamięć robocza to system poznawczy, który pozwala nam skupić się na zadaniu, jednocześnie przywołując zgromadzoną wiedzę i doświadczenia.
W neurobiologii istniały teorie na temat tego, jak obwody pamięci roboczej mogą ułatwić uczenie się. Jednak nie ma czegoś tak konkretnego jak nasza reguła, co faktycznie łączy te dwie rzeczy. I to była jedna z fajnych rzeczy, na które się tu natknęliśmy. teoria doprowadziła do reguły, według której indywidualne dostosowanie każdej synapsy wymagało obecności pamięci roboczej obok niej – mówi Daruwalla.
Projekt Daruwalli może pomóc w stworzeniu nowej generacji sztucznej inteligencji, która uczy się tak jak my. To nie tylko uczyniłoby sztuczną inteligencję bardziej wydajną i dostępną, ale także oznaczałoby moment zatoczenia koła dla neuroAI. Neuronauka dostarcza AI cennych danych na długo przed tym, zanim ChatGPT wypowiedział swoją pierwszą cyfrową sylabę. Wygląda na to, że sztuczna inteligencja może wkrótce się odwdzięczyć.
Źródło: materiały Laboratorium Cold Spring Harbor, zdjęcie zajawka: dlsdk cgl/Pixabay
Zostaw komentarz
You must be logged in to post a comment.