OpenAI przed wyborami, czyli walka z dezinformacją

Twórcy ChatGPT chcą oczyszczać sieć z kłamstw kampanii wyborczych

– Pracujemy nad zapobieganiem nadużyciom, zapewnianiem przejrzystości treści generowanych przez sztuczną inteligencję i poprawą dostępu do dokładnych informacji o głosowaniu – poinformowała OpenAI, firma, która która stworzyła ChatGPT wykorzystujący sztuczną inteligencję (AI). Jak zapewniono, celem jest walka z wprowadzającymi w błąd materiałami i przejrzystość tworzonych przez AI treści.

2024 r. będzie światowym rokiem wyborczym dla niemal połowy ludzkości – zauważył tygodnik „The Economist”, podając, że w nadchodzących 12 miesiącach w wyborach krajowych i lokalnych do urn pójdą obywatele co najmniej 64 państw. Wybory odbędą się m.in. w USA, Indiach, Unii Europejskiej i Wielkiej Brytanii. W Polsce również.

– Ochrona integralności wyborów wymaga współpracy na każdym etapie procesu demokratycznego, a my chcemy mieć pewność, że nasza technologia nie będzie wykorzystywana w sposób, który mógłby zagrozić temu procesowi – przyznaje OpenAI. – Chcemy mieć pewność, że nasze systemy sztucznej inteligencji są budowane, wdrażane i używane w sposób bezpieczny. Jak każda nowa technologia, narzędzia te niosą ze sobą korzyści i wyzwania. Są one również bezprecedensowe i będziemy stale rozwijać nasze podejście, gdy dowiemy się więcej o tym, jak wykorzystywane są nasze narzędzia.

Przygotowując się do wyborów w 2024 r. w największych demokracjach na świecie, podejściem firmy, jak zaznaczono w komunikacie, jest kontynuacja prac nad bezpieczeństwem platformy poprzez podnoszenie dokładnych informacji o głosowaniu, egzekwowanie wyważonych zasad i poprawę przejrzystości. 

– Prowadzimy wielozadaniowy wysiłek poświęcony pracy związanej z wyborami, łączący wiedzę specjalistyczną z naszych systemów bezpieczeństwa, zespołów ds. analizy zagrożeń, zespołów prawnych, inżynieryjnych i politycznych, aby szybko badać potencjalne nadużycia i reagować na nie – wyjaśnia firma.

Wylicza też najważniejsze inicjatywy, aby przygotować się do tegorocznych wyborów:

Zapobieganie nadużyciom

OpenAi zaznacza, że oczekuje i dąży do tego, aby ludzie korzystali z narzędzi firmy w sposób bezpieczny i odpowiedzialny, a wybory nie są wyjątkiem. Pracuje nad przewidywaniem odpowiednich nadużyć i zapobieganiem im, takimi jak wprowadzające w błąd „deepfakes”, skalowane operacje wywierania wpływu lub chatboty podszywające się pod kandydatów. Przed wypuszczeniem nowych systemów tworzy zespół, angażuje użytkowników i partnerów zewnętrznych w celu uzyskania informacji zwrotnych oraz opracowuje rozwiązania ograniczające bezpieczeństwo, aby zmniejszyć ryzyko szkód.

Regularnie udoskonala też Zasady użytkowania ChatGPT i API, gdy dowiaduje się więcej o tym, jak ludzie korzystają z naszej technologii lub próbują ją nadużywać. OpenAI przedstawiła kilka do wyróżnienia przed wyborami: 

  • Wciąż pracuje nad zrozumieniem, jak skuteczne mogą być jej narzędzia w zakresie spersonalizowanej perswazji. – Dopóki nie dowiemy się więcej, nie pozwalamy ludziom tworzyć aplikacji do prowadzenia kampanii politycznych i lobbingu – zaznacza OpenAI
  • Ludzie chcą wiedzieć i ufać, że mają do czynienia z prawdziwą osobą, firmą lub rządem. Z tego powodu OpenAI nie pozwala konstruktorom na tworzenie chatbotów udających prawdziwych ludzi (np. kandydatów) lub instytucje (np. samorządy lokalne). 
  • Nie zezwala na zgłoszenia, które zniechęcają ludzi do udziału w procesach demokratycznych — na przykład przedstawiają fałszywe informacje na temat procesów i kwalifikacji głosowania (np. kiedy, gdzie lub kto jest uprawniony do głosowania) lub zniechęcają do głosowania (np. twierdzenie, że głos jest bez znaczenia). .
  • Dzięki nowym GPT użytkownicy mogą zgłaszać nam potencjalne naruszenia.

Przejrzystość treści generowanych przez sztuczną inteligencję

Większa przejrzystość pochodzenia obrazu – w tym możliwość wykrycia, jakich narzędzi użyto do wytworzenia obrazu – może umożliwić wyborcom ocenę obrazu z zaufaniem i pewnością co do sposobu, w jaki został wykonany. OpenAI pracuje nad kilkoma próbami wskazywania pochodzenia. Na początku tego roku wdroży cyfrowe dane uwierzytelniające Koalicji na rzecz pochodzenia i autentyczności treści — podejście, które koduje szczegółowe informacje o pochodzeniu treści za pomocą kryptografii — dla obrazów generowanych przez aplikację firmy DALL·E 3. 

Eksperymentuje także z klasyfikatorem pochodzenia, nowym narzędziem do wykrywania obrazów generowanych przez DALL·E. – Nasze wewnętrzne testy wykazały obiecujące wstępne wyniki, nawet jeśli obrazy poddano typowym modyfikacjom. Planujemy wkrótce udostępnić go pierwszej grupie testerów – w tym dziennikarzom, platformom i badaczom – w celu uzyskania opinii – wylicza firma.

Wreszcie ChatGPT w coraz większym stopniu integruje się z istniejącymi źródłami informacji — na przykład użytkownicy zaczną uzyskiwać dostęp do globalnych raportów w czasie rzeczywistym, w tym do przypisów i linków. Przejrzystość w zakresie pochodzenia informacji i równowaga w źródłach wiadomości mogą pomóc wyborcom lepiej ocenić informacje i samodzielnie zdecydować, komu mogą zaufać.

– W nadchodzących miesiącach będziemy mieli więcej do przekazania. Nie możemy się doczekać dalszej współpracy i uczenia się od partnerów, aby przewidywać potencjalne nadużycia naszych narzędzi i zapobiegać im w okresie poprzedzającym tegoroczne wybory światowe – podsumowuje OpenAI.

Zdjęcie zajawka: Freepik

Udostępnij:

Powiązane posty

Zostaw komentarz