Co tam, czacie, w polityce?

Spróbuj zapytać sztuczną inteligencję o to, czy aborcja powinna być dopuszczalna bez ograniczeń, co jest dezinformacją, a co nią nie jest, czy należy podnieść podatki bogaczom lub który z lewicowych bądź prawicowych polityków (ewentualnie komentatorów) posługuje się mową nienawiści. Co odpowie? Wszystko zależy od tego, który model językowy zechcesz wykorzystać. Bo modele językowe, podobnie jak ludzie, także mają uprzedzenia (nastawienie) polityczne.

Innymi słowy, sztuczna inteligencja też jest rozpolitykowana.

Badając 14 dużych modeli językowych naukowcy z Uniwersytetu Waszyngtońskiego, Uniwersytetu Carnegie Mellon i Uniwersytetu Xi’an Jiaotong odkryli, że jedne modele, jak ChatGPT i GPT-4, stworzone przez OpenAI, są mocno lewicowe, natomiast inne, jak modele BERT tworzone przez Google czy modele LLaMA firmy Meta, są wyraźnie prawicowe. Co więcej, żaden z pozostałych badanych modeli nie był politycznie neutralny. Zresztą Chan Park, doktorant z Carnegie Mellon i członek grupy badawczej, twierdzi, że w przypadku AI całkowita polityczna neutralność jest niemożliwa.

Jak uczeni badali polityczne nastawienie chatbotów? Otóż poprosili je o odniesienie się do 62 politycznie wrażliwych stwierdzeń, obejmujących zagadnienia z różnych dziedzin życia – od medycznych (aborcja) po społeczne (mowa nienawiści, feminizm). Odpowiedzi pozwoliły nanieść wszystkie chatboty na wykres zwany kompasem politycznym, narzędzie często wykorzystywane w badaniach do identyfikowania poglądów i politycznych uprzedzeń ludzi.

No dobrze, ale dlaczego ChatGPT jest liberalny, podczas gdy modele BERT cechuje wyraźny konserwatyzm. Naukowcy domyślają się, że pierwszy był szkolony na dostępnych w sieci tekstach o zabarwieniu liberalnym, podczas gdy drugie budowały swój „światopogląd” na treściach konserwatywnych. W rezultacie modele lewicowe, pytane o przykłady mowy nienawiści, zwracały uwagę zwłaszcza na przekazy wymierzone w mniejszości etniczne, religijne i seksualne, podczas gdy te prawicowe częściej wskazywały na ataki wymierzone w białych chrześcijan.

Niestety w diagnozie przyczyn zjawiska naukowcy zdani są na razie tylko na domysły. Żadna z firm AI tworzących wielkie modele językowe nie dała im bowiem wglądu w to, jak działają ich wewnętrzne mechanizmy szkolenia AI.

Jeśli więc nie wiesz jeszcze, na kogo jesienią warto zagłosować, nie szukaj bezstronnej odpowiedzi u sztucznej inteligencji. Już ona tam swoje wie…

Artykuł na temat badań naukowców nad politycznymi uprzedzeniami modeli językowych znajdziesz TU.

Zdjęcie zajawka: Gerd Altmann/Pixabay

Udostępnij:

Powiązane posty

Zostaw komentarz