– Pracujemy nad zapobieganiem nadużyciom, zapewnianiem przejrzystości treści generowanych przez sztuczną inteligencję i poprawą dostępu do dokładnych informacji o głosowaniu – poinformowała OpenAI, firma, która która stworzyła ChatGPT wykorzystujący sztuczną inteligencję (AI). Jak zapewniono, celem jest walka z wprowadzającymi w błąd materiałami i przejrzystość tworzonych przez AI treści.
2024 r. będzie światowym rokiem wyborczym dla niemal połowy ludzkości – zauważył tygodnik „The Economist”, podając, że w nadchodzących 12 miesiącach w wyborach krajowych i lokalnych do urn pójdą obywatele co najmniej 64 państw. Wybory odbędą się m.in. w USA, Indiach, Unii Europejskiej i Wielkiej Brytanii. W Polsce również.
– Ochrona integralności wyborów wymaga współpracy na każdym etapie procesu demokratycznego, a my chcemy mieć pewność, że nasza technologia nie będzie wykorzystywana w sposób, który mógłby zagrozić temu procesowi – przyznaje OpenAI. – Chcemy mieć pewność, że nasze systemy sztucznej inteligencji są budowane, wdrażane i używane w sposób bezpieczny. Jak każda nowa technologia, narzędzia te niosą ze sobą korzyści i wyzwania. Są one również bezprecedensowe i będziemy stale rozwijać nasze podejście, gdy dowiemy się więcej o tym, jak wykorzystywane są nasze narzędzia.
Przygotowując się do wyborów w 2024 r. w największych demokracjach na świecie, podejściem firmy, jak zaznaczono w komunikacie, jest kontynuacja prac nad bezpieczeństwem platformy poprzez podnoszenie dokładnych informacji o głosowaniu, egzekwowanie wyważonych zasad i poprawę przejrzystości.
– Prowadzimy wielozadaniowy wysiłek poświęcony pracy związanej z wyborami, łączący wiedzę specjalistyczną z naszych systemów bezpieczeństwa, zespołów ds. analizy zagrożeń, zespołów prawnych, inżynieryjnych i politycznych, aby szybko badać potencjalne nadużycia i reagować na nie – wyjaśnia firma.
Wylicza też najważniejsze inicjatywy, aby przygotować się do tegorocznych wyborów:
OpenAi zaznacza, że oczekuje i dąży do tego, aby ludzie korzystali z narzędzi firmy w sposób bezpieczny i odpowiedzialny, a wybory nie są wyjątkiem. Pracuje nad przewidywaniem odpowiednich nadużyć i zapobieganiem im, takimi jak wprowadzające w błąd „deepfakes”, skalowane operacje wywierania wpływu lub chatboty podszywające się pod kandydatów. Przed wypuszczeniem nowych systemów tworzy zespół, angażuje użytkowników i partnerów zewnętrznych w celu uzyskania informacji zwrotnych oraz opracowuje rozwiązania ograniczające bezpieczeństwo, aby zmniejszyć ryzyko szkód.
Regularnie udoskonala też Zasady użytkowania ChatGPT i API, gdy dowiaduje się więcej o tym, jak ludzie korzystają z naszej technologii lub próbują ją nadużywać. OpenAI przedstawiła kilka do wyróżnienia przed wyborami:
Większa przejrzystość pochodzenia obrazu – w tym możliwość wykrycia, jakich narzędzi użyto do wytworzenia obrazu – może umożliwić wyborcom ocenę obrazu z zaufaniem i pewnością co do sposobu, w jaki został wykonany. OpenAI pracuje nad kilkoma próbami wskazywania pochodzenia. Na początku tego roku wdroży cyfrowe dane uwierzytelniające Koalicji na rzecz pochodzenia i autentyczności treści — podejście, które koduje szczegółowe informacje o pochodzeniu treści za pomocą kryptografii — dla obrazów generowanych przez aplikację firmy DALL·E 3.
Eksperymentuje także z klasyfikatorem pochodzenia, nowym narzędziem do wykrywania obrazów generowanych przez DALL·E. – Nasze wewnętrzne testy wykazały obiecujące wstępne wyniki, nawet jeśli obrazy poddano typowym modyfikacjom. Planujemy wkrótce udostępnić go pierwszej grupie testerów – w tym dziennikarzom, platformom i badaczom – w celu uzyskania opinii – wylicza firma.
Wreszcie ChatGPT w coraz większym stopniu integruje się z istniejącymi źródłami informacji — na przykład użytkownicy zaczną uzyskiwać dostęp do globalnych raportów w czasie rzeczywistym, w tym do przypisów i linków. Przejrzystość w zakresie pochodzenia informacji i równowaga w źródłach wiadomości mogą pomóc wyborcom lepiej ocenić informacje i samodzielnie zdecydować, komu mogą zaufać.
– W nadchodzących miesiącach będziemy mieli więcej do przekazania. Nie możemy się doczekać dalszej współpracy i uczenia się od partnerów, aby przewidywać potencjalne nadużycia naszych narzędzi i zapobiegać im w okresie poprzedzającym tegoroczne wybory światowe – podsumowuje OpenAI.
Zdjęcie zajawka: Freepik
Zostaw komentarz
You must be logged in to post a comment.