Zwodnicza mowa. AI zbanuje fałsz

Inżynierowie zapobiegają syntezie zwodniczej mowy, utrudniając narzędziom AI odczytywanie nagrań głosowych

Niedawne postępy w dziedzinie generatywnej sztucznej inteligencji pobudziły rozwój realistycznej syntezy mowy, głównie na potrzeby chatbotów, czy lektorów filmów. Zdarzały się jednak przypadki naciągaczy, którzy np. przedstawiając się jako dyrektorzy banku wyłudzali przelewy na zagraniczne konta tylko dzięki sfałszowanemu głosowi i telefonom.

Jak widać, choć technologia ta może potencjalnie poprawić jakość życia dzięki spersonalizowanym asystentom głosowym i narzędziom komunikacyjnym zwiększającym dostępność. Doprowadziła jednak również do pojawienia się deepfakes, w ramach których syntetyzowana mowa może zostać niewłaściwie wykorzystana do oszukiwania ludzi i maszyn w niecnych celach.

Ning Zhang, adiunkt informatyki i inżynierii w McKelvey School of Engineering na Washington University w St. Louis, opracował narzędzie o nazwie AntiFake – nowatorski mechanizm obronny mający na celu udaremnienie nieautoryzowanej syntezy mowy.

Zhang zaprezentował AntiFake 27 listopada na konferencji Stowarzyszenia Maszyn Obliczeniowych na temat Bezpieczeństwa Komputerów i Komunikacji w Kopenhadze.

W przeciwieństwie do tradycyjnych metod wykrywania deepfake, które służą do oceny i odkrywania syntetycznego dźwięku jako narzędzia łagodzenia skutków ataku, AntiFake przyjmuje postawę proaktywną.

Wykorzystuje techniki kontradyktoryjne, aby zapobiec syntezie zwodniczej mowy, utrudniając narzędziom AI odczytanie niezbędnych cech z nagrań głosowych.

– AntiFake dba o to, by kiedy udostępniamy dane głosowe, przestępcom było trudno wykorzystać te informacje do syntezy naszego głosu i podszywania się pod nas – powiedział Zhang. – Narzędzie wykorzystuje technikę kontradyktoryjnej sztucznej inteligencji, która pierwotnie była częścią zestawu narzędzi cyberprzestępców, ale teraz używamy jej do obrony przed nimi. Tylko trochę psujemy nagrany sygnał audio, zniekształcamy go lub zakłócamy na tyle, że dla ludzkich słuchaczy nadal brzmi to dobrze, ale w przypadku sztucznej inteligencji jest to zupełnie coś innego.

Aby mieć pewność, że AntiFake może stawić czoła stale zmieniającemu się krajobrazowi potencjalnych atakujących i nieznanych modeli syntezy, Zhang i pierwszy autor Zhiyuan Yu, absolwent w laboratorium Zhanga, stworzyli narzędzie umożliwiające jego uogólnienie i przetestowali je w oparciu o pięć najnowocześniejszych rozwiązań – syntezatorów mowy.

AntiFake osiągnął stopień ochrony ponad 95 procentach.

Obecnie AntiFake potrafi chronić krótkie klipy mowy, celując w najczęstszy rodzaj podszywania się pod głos.

Jednak zdaniem Zhang nic nie stoi na przeszkodzie, aby w ramach trwającej walki z dezinformacją rozwijać to narzędzie w celu ochrony dłuższych nagrań, a nawet muzyki.

 – Docelowo chcemy mieć możliwość pełnej ochrony nagrań głosowych – powiedział Zhang. – Chociaż nie wiem, co będzie dalej w technologii głosowej AI – cały czas opracowywane są nowe narzędzia i funkcje – sądzę jednak, że nasza strategia polegająca na zwracaniu przeciwko nim technik przeciwników będzie w dalszym ciągu skuteczna. Sztuczna inteligencja pozostaje podatna na ataki na przeciwstawne perturbacje, nawet jeśli specyfika inżynierii może wymagać zmiany, aby utrzymać tę strategię jako zwycięską.

Źródło: materiały Uniwersytetu Waszyngtona w St. Louis, zdjęcie zajawka: Tumisu/Pixabay

Udostępnij:

Powiązane posty

Zostaw komentarz