Nie tak bystra, nie taka groźna?

Duże modele językowe (LLM), jak np. ChatGPT, są „intelektualnie niesamodzielne” – bez ścisłych wskazówek człowieka nie potrafią się same uczyć ani nabywać nowych umiejętności.

To z kolei sprawia, że są przewidywalne, kontrolowalne i bezpieczne, więc żadna apokalipsa ze strony sztucznej inteligencji nam nie grozi. Do takiego wniosku doszli naukowcy z angielskiego Uniwersytetu w Bath i niemieckiego Uniwersytetu Technicznego w Darmstadt – i to drogą empiryczną. Swoje wnioski przedstawili właśnie na 62. dorocznym spotkaniu Association for Computational Linguistics (ACL 2024) – czołowej międzynarodowej konferencji poświęconej przetwarzaniu języka naturalnego.

Uczeni działający pod kierunkiem prof. Iryny Gurevych przeprowadzili tysiące eksperymentów mających sprawdzić zdolność LLM do wykonywania zadań, z którymi modele te nigdy wcześniej nie miały do czynienia. Chodziło o wykazanie, czy AI posiada tzw. właściwości emergentne. To takie zachowania, właściwości, funkcje czy zdolności systemu, które nie zostały wprost zaprogramowane, ale pojawiają się spontanicznie, jako rezultat jego złożoności, w procesie interakcji i uczenia się.

Badanie wykazało, że LLM mają powierzchowną zdolność do wykonywania instrukcji przekazywanych przez ludzi i są znakomite, jeśli chodzi o biegłość językową. Jednak pozbawione wyraźnych instrukcji nie mają zdolności do do opanowania nowych umiejętności.

Nie ma więc obaw, że LLM nabędą umiejętność złożonego rozumowania

Owszem, trenowane na coraz większych zbiorach danych będą generować bardziej złożony język i lepiej radzić sobie z wykonywaniem coraz bardziej skomplikowanych zadań – ale na tym koniec. Sztuczna inteligencja nie jest w stanie za naszymi plecami zrobić czegoś nieoczekiwanego i nieprzewidzianego, co mogłoby nam śmiertelnie zagrozić.

Może być wykorzystywana do tworzenia fejków i innych oszustw, ale to już zupełnie inna sprawa.

Zdjęcie zajawka: Olav Ahrens Røtne/Unsplash

Udostępnij:

Powiązane posty

Zostaw komentarz