Modelowi sztucznej inteligencji, który zbudowali naukowcy z Uniwersytetu Stanforda i programiści z Google DeepMind, na wypreparowanie cyfrowej repliki twojej osobowości wystarczą zaledwie 2 godziny. Co więcej, bez względu na to, za jak bardzo skomplikowanego człowieka sam siebie uważasz, dokładność tego odwzorowania będzie ogromna. Wirtualne kopie ludzi stworzone w tym badaniu, które potrafią uosabiać ich osobowości, wartości i zachowania, nazwano „agentami symulacyjnymi”.
By sprawdzić, w jakim stopniu „agenci symulacyjni” odwzorowują ludzi, 1000 uczestników badania, z których każdy dostał za fatygę 100 dolarów, przez dwa tygodnie wypełniało testy osobowości, ankiety społeczne oraz grało w gry logiczne – i to dwukrotnie. Potem repliki AI każdej z tych osób przeszły te same testy. Podobieństwo między ludźmi a ich cyfrowymi awatarami wyniosło 85 proc.
Po co tworzyć programy, które będą myśleć i działać dokładnie tak, jak my?
Joon Sung Park, główny badacz w obu zespołach, mówi o rewolucji w naukach społecznych – umożliwieniu prowadzenia badań, które są zbyt kosztowne albo zbyt skomplikowane, aby przeprowadzić je z prawdziwymi ludźmi.
Bo „agenci symulacyjni” to nie cyfrowi służący, którzy mają za nas rezerwować bilety na samolot czy planować spotkania – od tego są „agenci oparci na narzędziach” (opracowaniem ich zajmują się już m.in. OpenAi i Salesforce). Ambicje badaczy ze Stanforda i Google DeepMind są większe: repliki ludzi, nad którymi pracują, mają pomagać nam lepiej zrozumieć, jak reagujemy na dezinformację w sieci i wspierać badania społeczne, np. nad uczciwością ludzi czy zdolnościami do współpracy.
Ale na tym pewnie się nie skończy. Nietrudno bowiem wyobrazić sobie teraz świat, w którym powstałe po kilku godzin z nami cyfrowe bliźniaki stworzą sztuczną inteligencję zdolną dogłębnie rozumieć nasze preferencje, wartości, słabości i dziwactwa.
I tu mamy problem. Badania, które mają przyczynić się do zwiększenia naszego bezpieczeństwa w Internecie, to oczywiście zbożny cel. Ale co będzie, jeśli w sieci zaczną się kiedyś pojawiać agenci symulacyjni zdolni się pod nas podszywać i w naszym imieniu robić różne nieciekawe rzeczy, na które sami nigdy byśmy sobie nie pozwolili?
Pełny opis badania przeprowadzonego przez zespoły ze Stanford i Google DeepMind znajdziesz TU
Zdjęcie zajawka: Gerd Altmann/Pixabay
Zostaw komentarz
You must be logged in to post a comment.