Jak ChatGPT glajszachtuje angielszczyznę

ChatGPT jest świetnym narzędziem do komunikacji, tyle że faworyzuje głównie standardowy amerykański angielski (SAE).

To zaś może być niekorzystne dla osób posługujących się innymi niż „standardowe” odmianami, takimi jak angielski indyjski, nigeryjski lub afroamerykański – ustalili naukowcy z Uniwersytetu Kalifornijskiego w Berkeley. Problem jest poważny, bo choć odmiany te są używane przez ponad miliard ludzi, ich użytkownicy spotykają się z dyskryminacją zarówno społeczną, jak z gorszym traktowaniem w interakcjach ze sztuczną inteligencją. Dyskryminacja językowa często służy jako zamiennik uprzedzeń rasowych lub etnicznych. To z kolei budzi obawy, że sztuczna inteligencja takie nierówności tylko wzmocni.

Naukowcy przetestowali GPT-3.5 i GPT-4 z podpowiedziami w dziesięciu odmianach języka angielskiego: dwóch „standardowych” (SAE i Standard British English) i ośmiu innych niż „standardowe”. Okazało się, że ChatGPT często domyślnie wybierał SAE, zachowując jego cechy w znacznie większym stopniu niż cechy dialektów niestandardowych (o ponad 60%). Czasami jednak naśladował odmiany inne niż „standardowe” – częściej w przypadku odmian o większej liczbie użytkowników (np. nigeryjski angielski).

Wniosek? Skład danych treningowych modelu wpływa na to, jak dobrze radzi on sobie z różnymi dialektami. Ponadto modele AI często powracały do pisowni amerykańskiej, nawet kiedy w podpowiedziach stosowano konwencje brytyjskie.

Wyniki badań wykazały istnienie znaczących odchyleń w odpowiedziach na odmiany angielszczyzny inne niż „standardowe”.

Domyślne odpowiedzi GPT-3.5 wykazywały zwiększoną stereotypowość (19%), poniżającą treść (25%), brak zrozumienia (9%) i protekcjonalność (15%) w porównaniu do odpowiedzi na „standardowy” angielski

Kiedy poproszono AI o naśladowanie „niestandardowych” odmian, stereotypizacja tylko się zwiększyła. GPT-4, choć lepszy od GPT-3.5 pod względem rozumienia niuansów języka, wzmocnił stereotypy, stając się o 14% bardziej szkodliwym dla odmian mniejszościowych angielskiego.

Odkrycia te sugerują, że modele językowe, takie jak ChatGPT, mogą utrwalać dyskryminację osób posługujących się odmianami angielszczyzny innymi niż „standardowe”, wzmacniając szkodliwe stereotypy. W miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej powszechne w codziennym życiu, to uprzedzenie grozi pogłębieniem nierówności, z jakimi borykają się społeczności językowe nieposługujące się SAE. A przez to ich dostęp do narzędzi sztucznej inteligencji staje się trudniejszy, zaś korzystanie z jej narzędzi mniej skuteczne i efektywnie.

Więcej na temat ustaleń naukowców z Berkeley znajdziesz TU

Zdjęcie zajawka: kolaż BoliviaInteligente/Unsplash, Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz