Zastosowania takie obejmują wyłudzenia, szantaże, czy też generowanie treści pornograficznych. Naukowe dowody na skalę tego zjawiska są jednak dosyć ograniczone, za to, jak zauważają autorzy raportu, istnieją liczne anegdotyczne relacje wskazujące na rosnący problem fałszywych treści generowanych przy pomocy sztucznej inteligencji. Raport został napisany przez 100 ekspertów od AI, w tym przedstawicieli nominowanych przez 33 kraje oraz organizacje międzynarodowe.
Przykładowo w ostatnich miesiącach pojawiły się raporty wskazujące na znaczny wzrost liczby deepfake’ów w Internecie. Wiarygodne dane dotyczące skali problemu są jednak wciąż ograniczone. Techniki wykrywania treści generowanych przez AI mają swoje ograniczenia, a zabezpieczenia mogą być łatwo usunięte przez zaawansowanych użytkowników.
Fałszywe treści generowane przez AI obejmują różne formaty: pojawiają się zarówno „fejki” audio, video oraz tekstowe. Służą one do przedstawiania ludzi lub wydarzeń w sposób odbiegający od rzeczywistości. Jak podkreślają autorzy raportu, jednym z przykładów tego zjawiska jest deepfake, czyli generowane realistyczne nagrania audio i wideo, w których dana osoba przedstawiana jest w nieprawdziwej sytuacji.
AI pozwala generować treści, które są następnie wykorzystywane do oszustw i manipulacji finansowych, np. poprzez imitowanie głosu ofiary w celu autoryzowania transakcji bankowych. Szantaż często polega na tworzeniu fałszywych, kompromitujących materiałów i grożeniu opublikowaniem ich w celu uzyskania okupu. Treści tego typu są również wykorzystywane do niszczenia reputacji osób publicznych: polityków, dziennikarzy i celebrytów, poprzez umieszczanie ich w fikcyjnych sytuacjach, które mogą zaszkodzić ich karierze lub życiu osobistemu.
Problem fałszywych treści generowanych przez AI jest trudno „mierzalny”, ponieważ, jak podnoszą autorzy raportu, brakuje kompleksowych statystyk dotyczących ich skali. Eksperci uważają, że liczba takich przypadków rośnie, ale wiele z nich pozostaje niezgłoszonych: ofiary milczą przez wstyd lub z powodu obaw przed konsekwencjami. Instytucje często nie ujawniają przypadków oszustw związanych z AI, a osoby poszkodowane nie zgłaszają incydentów w obawie przed dalszymi konsekwencjami.
AI wykorzystywana jest również do tworzenia treści pornograficznych bez zgody przedstawianych osób. Według badań z 2019 roku 96 proc. deepfake’ów w sieci ma charakter pornograficzny, a niemal wszystkie treści na pięciu najpopularniejszych stronach z deepfake’ami pornograficznymi przedstawiają kobiety. Większość ofiar takich praktyk to aktorki i kobiety ze świata polityki. Deepfake’i seksualne są coraz częściej wykorzystywane jako narzędzie przemocy w relacjach intymnych.
Dzieci również narażone są na niebezpieczeństwa związane z AI z powodu generowanych fałszywych treści. W 2023 roku badacze odkryli setki zdjęć przedstawiających wykorzystywanie seksualne dzieci w zbiorach danych używanych do trenowania popularnych modeli AI, takich jak Stable Diffusion. W Wielkiej Brytanii 17 proc. dorosłych, którzy zetknęli się z deepfake’ami o charakterze seksualnym twierdzi, że widziało materiały przedstawiające nieletnich. Ponadto uczniowie szkół średnich zaczęli wykorzystywać aplikacje oparte na AI do generowania nagich zdjęć swoich rówieśników.
Badania pokazują, że 43 proc. osób powyżej 16. roku życia w Wielkiej Brytanii widziało co najmniej jeden deepfake w ciągu ostatnich sześciu miesięcy. Wśród dzieci w wieku 8-15 lat odsetek ten wynosi 50 proc. Mimo to, jak wskazują autorzy, nadal brakuje rzetelnych danych na temat pełnej skali problemu oraz jego wpływu na społeczeństwo. Wiele osób nie jest w stanie rozpoznać treści wygenerowanych przez AI, co dodatkowo zwiększa ryzyko dezinformacji i nadużyć.
Inne badanie przeprowadzone również w Wielkiej Brytanii na 1403 dorosłych osobach pokazało, że kobiety wyrażały znacznie więcej obaw dotyczących ryzyka bycia celem deepfake’ów o charakterze seksualnym, oszustw w oparciu o deepfake’i oraz innych form szkodliwych deepfake’ów.
Rozwiązania technologiczne, takie jak narzędzia wykrywające deepfake’i, nie są jednak w pełni skuteczne. Badania pokazują, że oznaczenia ostrzegawcze zamieszczane na prawdopodobnie fałszywych, wygenerowanych materiałach, zwiększają wykrywalność jedynie z 10,7 proc. do 21,6 proc. Zdecydowana większość osób nadal nie jest w stanie odróżnić autentycznych nagrań od zmodyfikowanych treści.
W raporcie wskazano, że istniejące narzędzia wspomagające zabezpieczenie przed natknięciem się na deepfake’i obejmują chociażby znaki wodne, czyli dodawanie cyfrowego podpisu do treści w momencie jej tworzenia. Choć takie zabezpieczenie może pomóc w identyfikacji źródła materiału, nieco bardziej złośliwi i technicznie uzdolnieni internauci mogą usunąć takie znaki z gotowego nagrania.
Autorzy raportu zwracają uwagę, że zagrożenia związane z fałszywymi treściami generowanymi przez AI stanowią niemałe wyzwanie dla decydentów politycznych. Brak dokładnych danych utrudnia ocenę skali problemu, a skuteczność obecnych metod wykrywania wciąż nie jest dostatecznie wysoka.
Dynamiczny rozwój technologii AI sprawia, że metody prewencji często nie nadążają za nowymi technikami tworzenia deepfake’ów. Oznacza to, jak podkreślają, że nie ma jednego, skutecznego rozwiązania tego problemu, a walka z nadużyciami wymaga wielopłaszczyznowego podejścia, które obejmowałoby regulacje prawne, edukację społeczną i rozwój nowych technologii zabezpieczających.
Tekst: KM, zdjęcie zajawka: Freepik
Autor: KM
Zostaw komentarz
You must be logged in to post a comment.