To zaś może być niekorzystne dla osób posługujących się innymi niż „standardowe” odmianami, takimi jak angielski indyjski, nigeryjski lub afroamerykański – ustalili naukowcy z Uniwersytetu Kalifornijskiego w Berkeley. Problem jest poważny, bo choć odmiany te są używane przez ponad miliard ludzi, ich użytkownicy spotykają się z dyskryminacją zarówno społeczną, jak z gorszym traktowaniem w interakcjach ze sztuczną inteligencją. Dyskryminacja językowa często służy jako zamiennik uprzedzeń rasowych lub etnicznych. To z kolei budzi obawy, że sztuczna inteligencja takie nierówności tylko wzmocni.
Naukowcy przetestowali GPT-3.5 i GPT-4 z podpowiedziami w dziesięciu odmianach języka angielskiego: dwóch „standardowych” (SAE i Standard British English) i ośmiu innych niż „standardowe”. Okazało się, że ChatGPT często domyślnie wybierał SAE, zachowując jego cechy w znacznie większym stopniu niż cechy dialektów niestandardowych (o ponad 60%). Czasami jednak naśladował odmiany inne niż „standardowe” – częściej w przypadku odmian o większej liczbie użytkowników (np. nigeryjski angielski).
Wniosek? Skład danych treningowych modelu wpływa na to, jak dobrze radzi on sobie z różnymi dialektami. Ponadto modele AI często powracały do pisowni amerykańskiej, nawet kiedy w podpowiedziach stosowano konwencje brytyjskie.
Wyniki badań wykazały istnienie znaczących odchyleń w odpowiedziach na odmiany angielszczyzny inne niż „standardowe”.
Domyślne odpowiedzi GPT-3.5 wykazywały zwiększoną stereotypowość (19%), poniżającą treść (25%), brak zrozumienia (9%) i protekcjonalność (15%) w porównaniu do odpowiedzi na „standardowy” angielski
Kiedy poproszono AI o naśladowanie „niestandardowych” odmian, stereotypizacja tylko się zwiększyła. GPT-4, choć lepszy od GPT-3.5 pod względem rozumienia niuansów języka, wzmocnił stereotypy, stając się o 14% bardziej szkodliwym dla odmian mniejszościowych angielskiego.
Odkrycia te sugerują, że modele językowe, takie jak ChatGPT, mogą utrwalać dyskryminację osób posługujących się odmianami angielszczyzny innymi niż „standardowe”, wzmacniając szkodliwe stereotypy. W miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej powszechne w codziennym życiu, to uprzedzenie grozi pogłębieniem nierówności, z jakimi borykają się społeczności językowe nieposługujące się SAE. A przez to ich dostęp do narzędzi sztucznej inteligencji staje się trudniejszy, zaś korzystanie z jej narzędzi mniej skuteczne i efektywnie.
Więcej na temat ustaleń naukowców z Berkeley znajdziesz TU
Zdjęcie zajawka: kolaż BoliviaInteligente/Unsplash, Freepik
Zostaw komentarz
You must be logged in to post a comment.