Patrząc na wyniki eksperymentu, który przeprowadziła grupa jego uczonych kolegów z amerykańskiego Brigham Young University (BYU), prof. David Wingate był zdumiony.
Okazało się bowiem, że algorytmy inteligentnego modelu GPT-3 w wirtualnych wyborach zagłosowały dokładnie tak jak ludzie. Innymi słowy, sztuczna inteligencja potrafi przewidzieć, na kogo dana osoba odda swój głos, jeśli zaopatrzymy ją w odpowiedni zasób danych, które tej osoby dotyczą.
W jednym z eksperymentów informatycy i politolodzy z BYU stworzyli wirtualne osoby, a każdej z nich przypisali konkretne cechy dotyczącej rasy, wieku, religijności i przekonań. Potem, korzystając z danych American National Election Studies (Amerykańskie Narodowe Studia Wyborcze), agencji odpowiedzialnej za dostarczanie opinii publicznej informacji na temat głosowań, naukowcy sprawdzili, jak te wirtualne osoby głosowałyby w wyborach prezydenckich w latach 2012, 2016 i 2020. Zgodność decyzji, które podjęły algorytmy (wyszkolone na tekstach zawierających łącznie sto miliardów słów) i ludzie, była uderzająca.
W innym eksperymencie uczeni zbadali, jakich odpowiedzi udzielą algorytmy na pytania ankietowe, na które ludzie już wcześniej odpowiadali. I tu podobieństwo było ogromne.
Naukowcy z BYU zapewniają, że chodzi im o takie szkolenie sztucznej inteligencji, by za jej pomocą można było lepiej rozumieć ludzi – a przez to przygotowywać lepsze ankiety wyborcze. Cóż, pewnie mówią prawdę. Sprawa wygląda jednak mniej niewinnie, jeśli pomyśleć, jaki użytek z takiego narzędzia mogą w przyszłości robić politycy – zwłaszcza ci startujący do elekcji z pozycji władzy.
Czy sztuczna inteligencja pozbawi nas wolnych wyborów?
Wyniki badań, które opublikowano w czasopiśmie „Political Analysis”, możesz przeczytać TU.
Zdjęcie zajawka: Element5 Digital/Pexel
Zostaw komentarz
You must be logged in to post a comment.