GPT-4 i toksyczne hashtagi

Media społecznościowe nakręcają wśród użytkowników spiralę zaburzeń odżywiania. Co gorsza, pogłębiają też zaburzenia psychiczne osób mających problem z odżywianiem i akceptowaniem swojego wyglądu.

By dojść do tych wniosków, naukowcy z Instytutu Nauk Informacyjnych (ISI) Uniwersytetu Kalifornijskiego w Viterbi przeanalizowali za pomocą narzędzia do uczenia maszynowego miliony wpisów na platformie X (dawnym Twitterze). Okazało się, że jej użytkownicy zainteresowani tematyką diety i odżywiania wpadają w swego rodzaju błędne koło – internetowe platformy społecznościowe tworzą pętlę sprzężenia zwrotnego dotyczącego spraw związanych z zaburzeniami odżywiania. W rezultacie anorektycy czy bulimicy zamiast znaleźć w tych mediach wsparcie i rozsądne rady, pogrążają się jeszcze bardziej w toksycznych i radykalnych treściach, które pogarszają ich stan. Odchudzający odchudzają się jeszcze mocniej, stosując coraz bardziej radykalne diety, choć poziom ich samoakceptacji systematycznie się obniża.

Po zidentyfikowaniu szczególnie szkodliwych hashtagów związanych z zaburzeniami odżywiania, jak np. #proana (od: pro-anorexia), uczeni przeanalizowali wzorce interakcji w sieciach tych hashtagów, by odkryć różne społeczności internetowe zorganizowane według konkretnych tematów rozmów. Wyróżnili 10 najbardziej aktywnych grup, a potem dzięki dużemu modelowi językowemu GPT-4 podsumowali główny temat rozmowy każdej z tych grup.

Wreszcie uczeni przypatrzyli się temu, jak wyodrębnione społeczności ze sobą współdziałały. Okazało się, że dziesiątki tysięcy użytkowników z tego samego społecznościowego klastra wymieniały ze sobą treści utwierdzające ich w dotychczasowych przekonaniach – ale kontaktów z zewnętrznymi, inaczej myślącymi grupami nie mieli niemal wcale.

Innymi słowy, działa tu wzorzec radykalizacji, który można spotkać w grupach ludzi mających podobne poglądy polityczne czy środowiskach osób wyznających teorie spiskowe.

Co z tym zrobić? Uczeni chcą analizować szkodliwe narracje w społecznościach internetowych za pomocą dużego modelu językowego Lamy 2 i rozszerzyć swe badania na platformy Reddit i TikTok. Wnioski, które powstaną w toku tych analiz, mają pomóc decydentom i branży technologicznej w skuteczniejszym moderowaniu treści na platformach społecznościowych.

Zdjęcie zajawka: Pixabay

Udostępnij:

Powiązane posty

Zostaw komentarz